JP6941458B2 - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP6941458B2
JP6941458B2 JP2017065009A JP2017065009A JP6941458B2 JP 6941458 B2 JP6941458 B2 JP 6941458B2 JP 2017065009 A JP2017065009 A JP 2017065009A JP 2017065009 A JP2017065009 A JP 2017065009A JP 6941458 B2 JP6941458 B2 JP 6941458B2
Authority
JP
Japan
Prior art keywords
priority
observer
unit
image
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017065009A
Other languages
Japanese (ja)
Other versions
JP2018170574A (en
Inventor
秀行 青木
秀行 青木
高橋 哲也
哲也 高橋
拓朗 田中
拓朗 田中
青木 文男
文男 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017065009A priority Critical patent/JP6941458B2/en
Publication of JP2018170574A publication Critical patent/JP2018170574A/en
Application granted granted Critical
Publication of JP6941458B2 publication Critical patent/JP6941458B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視を支援する技術に関する。 The present invention relates to a technique for assisting monitoring.

監視を支援する技術がある。例えば特許文献1には、映像信号の範囲に異常の発生を知らせる信号を検知したカメラ装置の映像信号を他のカメラ装置に優先して処理する技術が開示されている。 There is technology to support monitoring. For example, Patent Document 1 discloses a technique for preferentially processing a video signal of a camera device that has detected a signal indicating the occurrence of an abnormality in the range of the video signal over other camera devices.

特開平11−331818号公報Japanese Unexamined Patent Publication No. 11-331818

複数の監視カメラが撮影した映像を用いて監視エリアを監視する場合、それらの映像についての通信や異常検出のための画像処理等の負荷が過大になると、処理が遅延して異常事象の発生に気付くのが遅れるおそれがある。かといって、それらの負荷を小さくすると、映像の画質が低くなったり映像に対する画像処理の所要時間が長くなったりして、監視が不十分になることがある。
そこで、本発明は、監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制することを目的とする。
When monitoring a surveillance area using images taken by multiple surveillance cameras, if the load of communication for those images and image processing for abnormality detection becomes excessive, the processing will be delayed and an abnormal event will occur. It may be delayed to notice. On the other hand, if these loads are reduced, the image quality of the video may be lowered or the time required for image processing on the video may be lengthened, resulting in insufficient monitoring.
Therefore, an object of the present invention is to prevent insufficient monitoring when the processing load related to video in the monitoring area is reduced.

上記目的を達成するために、本発明は、監視エリアの映像を撮影する各撮影装置の位置情報を取得する第1取得手段と、前記監視エリアにいる監視者の位置情報を取得する第2取得手段と、取得された前記各撮影装置の位置情報及び前記監視者の位置情報に基づいて、前記撮影装置の優先度を判定する判定手段と、前記撮影装置について判定された前記優先度に応じて前記映像に関する処理を決定する決定手段とを備える監視システムを提供する。 In order to achieve the above object, the present invention has a first acquisition means for acquiring the position information of each photographing device that captures an image of the monitoring area, and a second acquisition for acquiring the position information of the observer in the monitoring area. According to the means, the determination means for determining the priority of the imaging device based on the acquired position information of each imaging device and the position information of the observer, and the priority determined for the imaging device. Provided is a surveillance system including a determination means for determining a process related to the video.

上記の監視システムにおいて、前記判定手段は、前記監視者と第1の位置関係にある第1撮影装置の優先度を、前記監視者と第1の位置関係にない場合に比べて低くしてもよい。
上記の監視システムにおいて、前記監視エリア内で発生した異常事象の発生場所を特定する特定手段を備え、前記判定手段は、特定された前記発生場所と第2の位置関係にある第2撮影装置の優先度を、当該発生場所と第2の位置関係にない場合に比べて高くしてもよい。
In the above monitoring system, the determination means may lower the priority of the first photographing apparatus having the first positional relationship with the observer to be lower than that in the case where the first imaging device is not in the first positional relationship with the observer. good.
In the above-mentioned monitoring system, a specific means for identifying the occurrence location of an abnormal event that has occurred in the monitoring area is provided, and the determination means is a second photographing apparatus having a second positional relationship with the specified occurrence location. The priority may be higher than when there is no second positional relationship with the place of occurrence.

上記の監視システムにおいて、前記判定手段は、前記第2撮影装置が前記監視者と前記第1の位置関係にある場合、当該第2撮影装置の優先度を、前記監視者と前記第1の位置関係にない場合に比べて低くしなくてもよい。
上記の監視システムにおいて、前記判定手段は、前記第2撮影装置の優先度を、他の撮影装置に比べて低くしなくてもよい。
In the above-mentioned monitoring system, when the second photographing apparatus has the first positional relationship with the observer, the determination means sets the priority of the second photographing apparatus to the observer and the first position. It does not have to be lower than when it is not related.
In the above-mentioned monitoring system, the determination means does not have to lower the priority of the second imaging device as compared with other imaging devices.

上記の監視システムにおいて、前記判定手段は、前記第1撮影装置の優先度を、前記監視者と前記第1の位置関係にない他の撮影装置に比べて低くしてもよい。
上記の監視システムにおいて、前記判定手段は、前記第1の位置関係にある前記監視者の人数が多いほど前記第1撮影装置の優先度を低くしてもよい。
In the above-mentioned monitoring system, the determination means may lower the priority of the first photographing device as compared with other photographing devices having no positional relationship with the observer.
In the above-mentioned monitoring system, the determination means may lower the priority of the first photographing device as the number of the observers in the first positional relationship increases.

本発明によれば、監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制することができる。 According to the present invention, it is possible to prevent insufficient monitoring when the processing load related to the video in the monitoring area is reduced.

実施例に係る監視システムの全体構成を表す図Diagram showing the overall configuration of the monitoring system according to the embodiment 監視員に装着された監視員端末を表す図Diagram showing the watchman terminal attached to the watchman 監視員端末のハードウェア構成を表す図Diagram showing the hardware configuration of the observer terminal 監視システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring system 撮影用パラメータテーブルの一例を表す図Diagram showing an example of a shooting parameter table 画像処理用パラメータテーブルの一例を表す図The figure which shows an example of the parameter table for image processing 優先度処理における各装置の動作手順の一例を表す図The figure which shows an example of the operation procedure of each device in priority processing.

[1]実施例
図1は実施例に係る監視システム1の全体構成を表す。監視システム1は、監視エリアにおける監視を支援するシステムである。監視エリアには監視員が配置されて現場での監視を行う。また、監視員を支援するためのオペレータが監視センタに常駐し、監視員と連絡を取りながら監視エリア内の状況について情報を提供したり監視すべき場所を指示したりする。監視システム1は、主としてこれら監視員及びオペレータによって利用される。
[1] Example FIG. 1 shows the overall configuration of the monitoring system 1 according to the embodiment. The monitoring system 1 is a system that supports monitoring in the monitoring area. Observers are assigned to the monitoring area to monitor the site. In addition, an operator to assist the observer is stationed at the monitoring center, and while contacting the observer, he / she provides information on the situation in the monitoring area and instructs the place to be monitored. The monitoring system 1 is mainly used by these observers and operators.

監視システム1は、ネットワーク2と、イントラネット3と、複数の監視員端末10と、監視センタサーバ装置20と、オペレータ端末30と、複数の固定カメラ40とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。ネットワーク2は、移動体通信を行う基地局及び無線LAN(Local Area Network)通信を行うアクセスポイント等の無線通信装置を備える。ネットワーク2には、監視員端末10及び固定カメラ40がこれらの無線通信装置と無線通信を行うことにより接続される。 The monitoring system 1 includes a network 2, an intranet 3, a plurality of observer terminals 10, a monitoring center server device 20, an operator terminal 30, and a plurality of fixed cameras 40. The network 2 is a communication system including a mobile communication network, the Internet, and the like, and mediates the exchange of data between devices connected to the own system. The network 2 includes a wireless communication device such as a base station that performs mobile communication and an access point that performs wireless LAN (Local Area Network) communication. The observer terminal 10 and the fixed camera 40 are connected to the network 2 by performing wireless communication with these wireless communication devices.

イントラネット3は、例えばLAN及びWAN(Wide Area Network)を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。イントラネット3は、ネットワーク2に接続されている。また、イントラネット3には、監視センタサーバ装置20及びオペレータ端末30が接続されている。なお、イントラネット3との接続は有線通信及び無線通信のどちらでもよい。 The intranet 3 is a communication system including, for example, a LAN and a WAN (Wide Area Network), and mediates the exchange of data between devices connected to its own system. The intranet 3 is connected to the network 2. Further, the monitoring center server device 20 and the operator terminal 30 are connected to the intranet 3. The connection with the intranet 3 may be either wired communication or wireless communication.

固定カメラ40は、監視エリアの現場に設置されて周囲の映像、すなわち監視エリアの映像を撮影する装置であり、本発明の「撮影装置」の一例である。本発明でいう「映像」には、静止画像及び動画像のどちらも含まれ得るが、以下では動画像である場合を説明する。固定カメラ40は、撮影した映像を監視センタサーバ装置20に送信する。なお、映像を送信するとは、映像を示すデータを送信することを意味する。以下でも、各種の情報に対して送信等の処理を行うことは、それらの情報を示すデータに対して処理を行うことを意味する。 The fixed camera 40 is a device installed at the site of the surveillance area to capture an image of the surroundings, that is, an image of the surveillance area, and is an example of the "imaging device" of the present invention. The "video" referred to in the present invention may include both a still image and a moving image, but the case where it is a moving image will be described below. The fixed camera 40 transmits the captured image to the monitoring center server device 20. Note that transmitting a video means transmitting data indicating the video. Even in the following, performing processing such as transmission for various types of information means performing processing for data indicating the information.

固定カメラ40は、映像の撮影に関連する撮影関連処理において、解像度(画素数)、フレームレート、画像伝送レート(伝送速度)、圧縮率、圧縮方式等の設定事項を変更できる機能を有している。設定事項とは、コンピュータが処理(この例では撮影関連処理)を実行する際の動作の詳細な態様(どのようにその処理を行うか)を規定するために定められる情報のことであり、パラメータとも呼ばれる。 The fixed camera 40 has a function of changing setting items such as resolution (number of pixels), frame rate, image transmission rate (transmission speed), compression rate, compression method, etc. in shooting-related processing related to video shooting. There is. The setting items are information defined to specify the detailed mode (how to perform the processing) of the operation when the computer executes the processing (shooting-related processing in this example), and are parameters. Also called.

以下では撮影関連処理で用いられる前述した各設定事項のことを「撮影用パラメータ」という。固定カメラ40は、定められた撮影用パラメータに基づいて撮影関連処理を行う。例えば解像度(画素数)が640×480=約30.7万画素と定められていれば、固定カメラ40は、画素数が640×480の映像を撮影する。 Hereinafter, each of the above-mentioned setting items used in the shooting-related processing is referred to as a “shooting parameter”. The fixed camera 40 performs shooting-related processing based on the predetermined shooting parameters. For example, if the resolution (number of pixels) is set to 640 × 480 = about 307,000 pixels, the fixed camera 40 captures an image having 640 × 480 pixels.

固定カメラ40は、例えば、撮影開始時は予め定められた初期の撮影用パラメータ又は前回の撮影終了時の撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、外部装置(本実施例では監視センタサーバ装置20)から使用する撮影用パラメータを指示されると、指示された撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、パン・チルト・ズーム機能を有し、オペレータ端末30や監視員端末10からの遠隔操作により制御可能としてもよい。 For example, at the start of shooting, the fixed camera 40 performs shooting-related processing based on a predetermined initial shooting parameter or a shooting parameter at the end of the previous shooting. Further, when the fixed camera 40 is instructed by the external device (monitoring center server device 20 in this embodiment) the shooting parameters to be used, the fixed camera 40 performs the shooting-related processing based on the instructed shooting parameters. Further, the fixed camera 40 has a pan / tilt / zoom function and may be controllable by remote control from the operator terminal 30 or the observer terminal 10.

固定カメラ40が送信した映像は、監視センタの画面に表示され、オペレータはその画面を見ながら監視エリアの状況を確認する。映像が高画質であるほど詳細な状況まで確認することができるが、高画質な映像はデータ量も多いので、固定カメラ40が行う無線通信に遅延が生じやすくなる。そこで、監視システム1においては、全ての映像の画質を高くするのではなく、監視エリアにおいて優先度が高い撮影装置の映像の画質を、他の映像よりも高くする。 The image transmitted by the fixed camera 40 is displayed on the screen of the monitoring center, and the operator confirms the status of the monitoring area while looking at the screen. The higher the image quality, the more detailed the situation can be confirmed. However, since the high-quality image has a large amount of data, the wireless communication performed by the fixed camera 40 is likely to be delayed. Therefore, in the surveillance system 1, the image quality of the image of the photographing device having a high priority in the monitoring area is made higher than that of other images, instead of improving the image quality of all the images.

監視員端末10は、監視エリアの現場に配置される監視員が所持して持ち運ぶ端末である。監視員端末10は、例えばスマートフォンであるが、本システム専用に作られた端末であってもよい。
図2は監視員に装着された監視員端末10を表す。図2では、監視員A1が端末ケース5を身体に固定している。端末ケース5は、監視員端末10を格納する入れ物であり、バンドにより監視員の身体(詳細には胸部)に固定されている。
The observer terminal 10 is a terminal carried by an observer placed at the site of the monitoring area. The observer terminal 10 is, for example, a smartphone, but may be a terminal made exclusively for this system.
FIG. 2 shows a watchman terminal 10 attached to a watchman. In FIG. 2, the watchman A1 fixes the terminal case 5 to his body. The terminal case 5 is a container for storing the watchman terminal 10, and is fixed to the watchman's body (specifically, the chest) by a band.

監視員端末10は、周囲の映像、すなわち監視エリアの映像を撮影する撮影手段を備えている。監視員端末10は本発明の「撮影装置」の一例でもある。端末ケース5は、自ケースに監視員端末10が格納された場合に撮影手段のレンズの位置する部分が透明になっている(孔が空いていてもよい)。監視員の胸部に装着された監視員端末10は、監視員の前方の映像を撮影する。 The observer terminal 10 is provided with a photographing means for capturing an image of the surroundings, that is, an image of the monitoring area. The observer terminal 10 is also an example of the "photographing device" of the present invention. In the terminal case 5, when the observer terminal 10 is stored in the own case, the portion where the lens of the photographing means is located is transparent (a hole may be formed). The observer terminal 10 attached to the observer's chest captures an image in front of the observer.

監視員端末10の撮影手段は、上述した撮影用パラメータを変更できる機能を有する。この撮影用パラメータも、固定カメラ40と同様に、監視センタサーバ装置20によって決定される。また、監視員端末10は、GPS(Global Positioning System)等の自装置の位置の測定手段も備えている。監視員端末10は、撮影手段が撮影した映像と、測位手段による位置の測定結果とを監視センタサーバ装置20に送信する。 The photographing means of the observer terminal 10 has a function of being able to change the above-mentioned photographing parameters. The shooting parameters are also determined by the monitoring center server device 20 as in the fixed camera 40. In addition, the observer terminal 10 also includes means for measuring the position of its own device such as GPS (Global Positioning System). The observer terminal 10 transmits the image captured by the photographing means and the position measurement result by the positioning means to the monitoring center server device 20.

監視センタサーバ装置20は、監視エリアの監視状況を管理するための各種の処理を実行する情報処理装置である。監視センタサーバ装置20は、例えば、送信されてきた映像に対して画像処理を行い、監視エリアでの異常事象の発生を検出する。ここでいう異常事象とは、監視エリアにおいて発生する事象のうち、周囲の人の安全を脅かしたり迷惑になったりするなどの理由で、監視員が何らかの対応(関係者への連絡や事態を収束するための対処など)を行う対象となる事象のことであり、単に異常又は事案と呼ばれることもある。 The monitoring center server device 20 is an information processing device that executes various processes for managing the monitoring status of the monitoring area. The monitoring center server device 20 performs image processing on the transmitted video, for example, and detects the occurrence of an abnormal event in the monitoring area. An abnormal event here is an event that occurs in the monitoring area, and the observer takes some action (contacts with related parties and converges the situation) because it threatens the safety of people around him or causes annoyance. It is an event that is the target of action), and is sometimes called simply an abnormality or a case.

具体的には、例えば、不審者の出現、不審物の発見、立ち入り禁止エリアへの立ち入り、道路への飛び出し、怪我人の発生、事故の発生及びケンカの発生等が異常事象に含まれる。監視センタサーバ装置20は、異常事象の発生を検出すると、その旨を示す報知情報をオペレータ端末30に送信することで、オペレータへの報知を行う。 Specifically, for example, the appearance of a suspicious person, the discovery of a suspicious object, entry into an exclusion zone, jumping out onto a road, the occurrence of an injured person, the occurrence of an accident, the occurrence of a fight, and the like are included in the abnormal events. When the monitoring center server device 20 detects the occurrence of an abnormal event, it notifies the operator by transmitting notification information indicating that fact to the operator terminal 30.

オペレータ端末30は、監視センタのオペレータによって使用される端末である。オペレータ端末30は、監視センタサーバ装置20から送信されてきた報知情報を例えば表示手段に表示することで、監視エリアでの異常事象の発生をオペレータに報知する。この報知によって異常事象の発生に気付いたオペレータは、異常事象の発生を監視の責任者に伝えたり、監視員と連絡を取って、発生した異常事象への対応を指示したりする。 The operator terminal 30 is a terminal used by the operator of the monitoring center. The operator terminal 30 notifies the operator of the occurrence of an abnormal event in the monitoring area by displaying the notification information transmitted from the monitoring center server device 20 on, for example, a display means. The operator who notices the occurrence of the abnormal event by this notification informs the person in charge of monitoring of the occurrence of the abnormal event, or contacts the observer and instructs the response to the abnormal event that has occurred.

監視センタサーバ装置20には、監視エリア内を撮影する全ての固定カメラ40及び監視員端末10から映像が送信されてくるため、全ての映像に対して画像処理に用いるリソース(CPU((Central Processing Unit))及びメモリ等)を均等に割り当てると、1つの映像当たりのリソース量が少なくなる。その結果、仮に異常事象が発生してもそれを検出するまでに要する時間が長くなり、異常事象への対応が遅くなるおそれがある。 Since images are transmitted to the monitoring center server device 20 from all the fixed cameras 40 and the observer terminal 10 that shoot the inside of the monitoring area, resources (CPU ((Central Processing)) used for image processing for all the images are transmitted. If Unit)) and memory) are evenly allocated, the amount of resources per video will be reduced. As a result, even if an abnormal event occurs, the time required to detect it becomes long, and the response to the abnormal event may be delayed.

対応の遅れをなくすためには、全ての映像に十分な量のリソースを割り当てることが望ましいが、費用等の制限からそこまでのリソースを用意することは難しい。そこで、監視システム1においては、監視エリア内の重要な箇所を撮影した映像に他の映像よりもリソース量を多く割り当てて、重要な箇所における異常事象の発生をより早く検出できるようにする。そして、そのための画像処理に関する設定事項(パラメータ)が、監視センタサーバ装置20によって決定される。この設定事項のことを以下では「画像処理用パラメータ」という。 In order to eliminate the delay in response, it is desirable to allocate a sufficient amount of resources to all videos, but it is difficult to prepare such resources due to cost restrictions. Therefore, in the monitoring system 1, a larger amount of resources is allocated to the video obtained by capturing an important part in the monitoring area than in other images so that the occurrence of an abnormal event in the important part can be detected earlier. Then, the setting items (parameters) related to the image processing for that purpose are determined by the monitoring center server device 20. This setting item is referred to as "image processing parameter" below.

図3は監視員端末10のハードウェア構成を表す。監視員端末10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、撮影装置17と、測位装置18とを備えるコンピュータである。プロセッサ11は、CPU等を備え、オペレーティングシステムを動作させてコンピュータ全体を制御する機能を有するデバイスである。プロセッサ11は、プログラム及びデータ等をストレージ13及び通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。 FIG. 3 shows the hardware configuration of the observer terminal 10. The observer terminal 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, a photographing device 17, and a positioning device 18. The processor 11 is a device including a CPU or the like and having a function of operating an operating system and controlling the entire computer. The processor 11 reads programs, data, and the like from the storage 13 and the communication device 14 into the memory 12, and executes various processes according to these.

メモリ12は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばROM(Read Only Memory)及びRAM(Random Access Memory)等である。ストレージ13は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばハードディスクドライブ及びフラッシュメモリ等である。通信装置14は、有線ネットワーク又は/及び無線ネットワークを介してコンピュータ間の通信を行う機能を有する通信デバイスである。監視員端末10においては、通信装置14が、例えば移動体通信又は無線LANの規格に準拠した無線通信を行う。 The memory 12 is a recording device having a function of storing data that can be read by the processor 11, such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage 13 is a recording device having a function of storing data that can be read by the processor 11, such as a hard disk drive and a flash memory. The communication device 14 is a communication device having a function of communicating between computers via a wired network and / or a wireless network. In the observer terminal 10, the communication device 14 performs, for example, mobile communication or wireless communication conforming to a wireless LAN standard.

入力装置15は、外部からの入力を受け付ける機能を有する入力デバイスである。監視員端末10においては、入力装置15が、例えばタッチセンサ、ボタン及びマイクロフォン等を備える。出力装置16は、外部への出力を実施する機能を有する出力デバイスである。監視員端末10においては、出力装置16が、ディスプレイを備え、入力装置15のタッチセンサ及び出力装置16のディスプレイが一体となってタッチスクリーンを構成する。 The input device 15 is an input device having a function of receiving an input from the outside. In the observer terminal 10, the input device 15 includes, for example, a touch sensor, a button, a microphone, and the like. The output device 16 is an output device having a function of performing output to the outside. In the observer terminal 10, the output device 16 includes a display, and the touch sensor of the input device 15 and the display of the output device 16 integrally form a touch screen.

撮影装置17は、周囲の映像を撮影するデバイスである。撮影装置17は、上述した撮影用パラメータに基づいて映像を撮影し、撮影した映像をプロセッサ11に供給する。測位装置18は、例えば、GPS衛星からの信号を用いて自身の位置を測定し、測定した位置を示す位置情報(緯度及び経度を示す情報)をプロセッサ11に供給する。 The photographing device 17 is a device that photographs an ambient image. The photographing device 17 photographs an image based on the above-mentioned photographing parameters, and supplies the photographed image to the processor 11. The positioning device 18 measures its own position using, for example, a signal from a GPS satellite, and supplies position information (information indicating latitude and longitude) indicating the measured position to the processor 11.

監視センタサーバ装置20は、プロセッサと、メモリと、ストレージと、通信装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。監視センタサーバ装置20においては、通信装置が、有線LANの規格に準拠した有線通信を行う(無線通信を行ってもよい)。 The monitoring center server device 20 is a computer including a processor, a memory, a storage, and a communication device. All of these are devices having the same functions as the devices of the same name shown in FIG. In the monitoring center server device 20, the communication device performs wired communication conforming to the standard of the wired LAN (wireless communication may be performed).

オペレータ端末30は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。オペレータ端末30においては、通信装置が、有線LANの規格に準拠した有線通信を行い(無線通信を行ってもよい)、また、入力装置が、キーボード、マウス及びマイクロフォン等を備える。 The operator terminal 30 is a computer including a processor, a memory, a storage, a communication device, an input device, and an output device. All of these are devices having the same functions as the devices of the same name shown in FIG. In the operator terminal 30, the communication device performs wired communication conforming to the standard of the wired LAN (wireless communication may be performed), and the input device includes a keyboard, a mouse, a microphone, and the like.

固定カメラ40は、プロセッサと、メモリと、ストレージと、通信装置と、撮影装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。 The fixed camera 40 is a computer including a processor, a memory, a storage, a communication device, and a photographing device. All of these are devices having the same functions as the devices of the same name shown in FIG.

監視システム1が備える各装置のプロセッサがプログラムを実行して各部を制御することで、以下に述べる機能が実現される。
図4は監視システム1が実現する機能構成を表す。なお、図4では、監視員端末10及び固定カメラ40がそれぞれ1つしか表されていないが、他の監視員端末10及び固定カメラ40も同じ機能構成を備えている。
The functions described below are realized by the processor of each device included in the monitoring system 1 executing a program to control each part.
FIG. 4 shows a functional configuration realized by the monitoring system 1. Although only one observer terminal 10 and one fixed camera 40 are shown in FIG. 4, the other observer terminal 10 and the fixed camera 40 also have the same functional configuration.

監視員端末10は、測位部101と、位置情報送信部102と、撮影部103と、映像送信部104と、撮影動作制御部105とを備える。監視センタサーバ装置20は、監視員端末情報取得部201と、固定カメラ情報取得部202と、優先度判定部203と、処理決定部204と、撮影指示部205と、画像処理動作制御部206と、画像処理部207と、報知部208と、発生場所特定部209とを備える。オペレータ端末30は、報知情報表示部301を備える。固定カメラ40は、撮影部401と、映像送信部402と、撮影動作制御部403とを備える。 The observer terminal 10 includes a positioning unit 101, a position information transmission unit 102, a shooting unit 103, a video transmission unit 104, and a shooting operation control unit 105. The monitoring center server device 20 includes an observer terminal information acquisition unit 201, a fixed camera information acquisition unit 202, a priority determination unit 203, a processing determination unit 204, a shooting instruction unit 205, and an image processing operation control unit 206. , An image processing unit 207, a notification unit 208, and a generation location specifying unit 209. The operator terminal 30 includes a notification information display unit 301. The fixed camera 40 includes a photographing unit 401, a video transmitting unit 402, and a photographing operation control unit 403.

監視員端末10の測位部101は、自装置の位置を繰り返し測定する。測位部101は、例えば、一定時間の間隔(1秒毎など)で自装置の位置を測定し、測定した位置を示す位置情報を位置情報送信部102に供給する。位置情報送信部102は、測位部101により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。監視員端末10は自装置を識別する情報として装置ID(Identification)を記憶している。位置情報送信部102は、位置情報が供給される度にその位置情報を装置IDと共に監視センタサーバ装置20に送信する。 The positioning unit 101 of the observer terminal 10 repeatedly measures the position of its own device. The positioning unit 101 measures the position of its own device at regular time intervals (every second, etc.), and supplies position information indicating the measured position to the position information transmitting unit 102. The position information transmission unit 102 transmits the position information indicating the position of the own device measured by the positioning unit 101 to the monitoring center server device 20. The observer terminal 10 stores the device ID (Identification) as information for identifying the own device. The position information transmission unit 102 transmits the position information together with the device ID to the monitoring center server device 20 each time the position information is supplied.

撮影部103は、自装置の周囲の映像を撮影する。撮影部103は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(解像度、フレームレート)に基づいて撮影を行う。撮影部103は、映像を撮影しながら、並行して、撮影済みの映像を映像送信部104に供給する。映像送信部104は、撮影部103により撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する。 The photographing unit 103 photographs an image around the own device. The shooting unit 103 is controlled by the shooting operation control unit 105, which will be described later, and shoots based on the predetermined shooting parameters (resolution, frame rate). The shooting unit 103 supplies the shot video to the video transmitting unit 104 in parallel while shooting the video. The image transmitting unit 104 transmits the image around the own device photographed by the photographing unit 103 to the monitoring center server device 20.

映像送信部104は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(画像伝送レート)に基づいて映像を送信する。また、映像送信部104は、自装置の装置IDを含むメタデータを映像に付与して送信する。撮影部103及び映像送信部104は、ストリーミングの技術を用いて映像の撮影及び送信を並行して行う。撮影部103及び映像送信部104は、このようにして監視エリアの映像を撮影する撮影関連処理を行う。 The video transmission unit 104 is controlled by the shooting operation control unit 105, which will be described later, and transmits video based on a predetermined shooting parameter (image transmission rate). Further, the video transmission unit 104 adds metadata including the device ID of its own device to the video and transmits the video. The shooting unit 103 and the video transmitting unit 104 shoot and transmit video in parallel using the streaming technology. The shooting unit 103 and the video transmitting unit 104 perform shooting-related processing for shooting the video in the monitoring area in this way.

撮影動作制御部105は、撮影部103及び映像送信部104による撮影に関する動作を制御する。撮影動作制御部105は、例えば、予め定められた初期の撮影用パラメータ(解像度、フレームレート及び画像伝送レート等の初期値)を記憶しておき、その撮影用パラメータを用いて撮影関連処理を行うよう撮影部103及び映像送信部104を制御する。 The shooting operation control unit 105 controls the operation related to shooting by the shooting unit 103 and the video transmission unit 104. The shooting operation control unit 105 stores, for example, predetermined initial shooting parameters (initial values such as resolution, frame rate, and image transmission rate), and performs shooting-related processing using the shooting parameters. It controls the photographing unit 103 and the image transmitting unit 104.

固定カメラ40の撮影部401は、自カメラの周囲の映像を撮影する。映像送信部402は、撮影部401により撮影された自カメラの周囲の映像を監視センタサーバ装置20に送信する。撮影動作制御部403は、撮影部401及び映像送信部402による撮影に関する動作を制御する。撮影部401、映像送信部402、撮影動作制御部403は、監視員端末10の撮影部103、映像送信部104、撮影動作制御部105と同じ機能である。 The photographing unit 401 of the fixed camera 40 captures an image around the own camera. The image transmitting unit 402 transmits the image around the own camera captured by the photographing unit 401 to the monitoring center server device 20. The shooting operation control unit 403 controls the operation related to shooting by the shooting unit 401 and the video transmitting unit 402. The photographing unit 401, the image transmitting unit 402, and the photographing operation control unit 403 have the same functions as the photographing unit 103, the image transmitting unit 104, and the photographing operation control unit 105 of the observer terminal 10.

監視センタサーバ装置20の監視員端末情報取得部201は、監視員端末10の位置情報送信部102から送信されてきた位置情報及び装置IDと、監視員端末10の映像送信部104から送信されてきた映像及び装置IDとを、この装置IDが示す監視員端末10に関する情報(監視員端末情報)として取得する。つまり、監視員端末情報取得部201は、監視エリアの映像を撮影する各撮影装置(監視員端末10)の位置情報を取得する手段であり、本発明の「第1取得手段」の一例である。 The observer terminal information acquisition unit 201 of the monitoring center server device 20 has received the position information and device ID transmitted from the position information transmission unit 102 of the observer terminal 10 and the video transmission unit 104 of the observer terminal 10. The video and the device ID are acquired as information (monitor terminal information) related to the watcher terminal 10 indicated by the device ID. That is, the observer terminal information acquisition unit 201 is a means for acquiring the position information of each photographing device (observer terminal 10) that captures an image of the surveillance area, and is an example of the "first acquisition means" of the present invention. ..

また、監視員端末10は監視員に装着されているから、監視員端末10の位置情報は監視員の位置情報とみなすことができる。つまり、監視員端末情報取得部201は、監視エリアにいる監視員の位置情報を取得する手段でもあり、本発明の「第2取得手段」の一例である。監視員端末情報取得部201は、取得した監視員端末情報を優先度判定部203及び画像処理部207に供給する。 Further, since the observer terminal 10 is attached to the observer, the position information of the observer terminal 10 can be regarded as the position information of the observer. That is, the observer terminal information acquisition unit 201 is also a means for acquiring the position information of the observer in the monitoring area, and is an example of the "second acquisition means" of the present invention. The observer terminal information acquisition unit 201 supplies the acquired observer terminal information to the priority determination unit 203 and the image processing unit 207.

固定カメラ情報取得部202は、固定カメラ40の映像送信部402から送信されてきた映像及び装置IDを、この装置IDが示す固定カメラ40に関する情報(固定カメラ情報)として取得する。また、固定カメラ情報取得部202は、装置IDとその装置IDが示す固定カメラ40の位置情報とを対応付けたリストである位置情報リストを記憶している。これらの位置情報は、該当する固定カメラ40の設置時等に、設置位置の緯度経度情報等を測定して取得しておく。固定カメラ情報取得部202は、取得した装置IDに位置情報リストで対応付けられている位置情報を、固定カメラ情報として取得する。 The fixed camera information acquisition unit 202 acquires the image and the device ID transmitted from the image transmission unit 402 of the fixed camera 40 as information (fixed camera information) regarding the fixed camera 40 indicated by the device ID. Further, the fixed camera information acquisition unit 202 stores a position information list which is a list in which the device ID and the position information of the fixed camera 40 indicated by the device ID are associated with each other. These position information is acquired by measuring the latitude / longitude information of the installation position when the corresponding fixed camera 40 is installed. The fixed camera information acquisition unit 202 acquires the position information associated with the acquired device ID in the position information list as the fixed camera information.

つまり、固定カメラ情報取得部202は、監視エリアの映像を撮影する各撮影装置(固定カメラ40)の位置情報を取得する手段であり、本発明の「第1取得手段」の一例である。なお、各固定カメラ40が、自装置の位置情報を記憶しておき、その位置情報を映像と共に送信して、固定カメラ情報取得部202がその映像及び位置情報を固定カメラ情報として取得してもよい。固定カメラ情報取得部202は、取得した固定カメラ情報を優先度判定部203及び画像処理部207に供給する。 That is, the fixed camera information acquisition unit 202 is a means for acquiring the position information of each photographing device (fixed camera 40) that captures an image of the monitoring area, and is an example of the "first acquisition means" of the present invention. Even if each fixed camera 40 stores the position information of its own device, transmits the position information together with the image, and the fixed camera information acquisition unit 202 acquires the image and the position information as the fixed camera information. good. The fixed camera information acquisition unit 202 supplies the acquired fixed camera information to the priority determination unit 203 and the image processing unit 207.

優先度判定部203は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された各撮影装置の位置情報と、監視員端末情報取得部201により取得された監視員の位置情報とに基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する。優先度判定部203は本発明の「判定手段」の一例である。監視システム1においては、この優先度が高い撮影装置ほど、監視の観点で重要な映像を撮影しているとみなし、その映像から監視エリアの状況を把握しやすくしたり、異常事象の発生を早く見つけられるようにしたりする。 The priority determination unit 203 includes the position information of each photographing device acquired by the observer terminal information acquisition unit 201 and the fixed camera information acquisition unit 202, and the position information of the observer acquired by the observer terminal information acquisition unit 201. Based on the above, the priority of each of the plurality of photographing devices (observer terminal 10 and fixed camera 40) is determined. The priority determination unit 203 is an example of the "determination means" of the present invention. In the monitoring system 1, it is considered that the higher the priority of the photographing device, the more important the image is taken from the viewpoint of monitoring, and it is easier to grasp the situation of the monitoring area from the image and the occurrence of the abnormal event is earlier. Make it possible to find it.

優先度判定部203は、本実施例では、監視員端末10についての優先度と、固定カメラ40についての優先度を別々に判定する。以下ではまず、固定カメラ40の優先度の判定方法として、3つの判定方法について説明する。撮影装置の優先度は、一例として「1」から「5」までの5段階で表せられるものとする(ここでは「1」が最も優先度が高いものとする)。 In this embodiment, the priority determination unit 203 separately determines the priority of the observer terminal 10 and the priority of the fixed camera 40. Hereinafter, three determination methods will be described first as methods for determining the priority of the fixed camera 40. As an example, the priority of the photographing apparatus shall be expressed in five stages from "1" to "5" (here, "1" has the highest priority).

第1の判定方法では、優先度判定部203は、監視員と第1の位置関係にある固定カメラ40の優先度を、当該固定カメラ40が監視員と第1の位置関係にない場合の優先度に比べて低くする。この場合の固定カメラ40のように監視員と第1の位置関係にある撮影装置は本発明の「第1撮影装置」の一例である。第1の位置関係とは、例えば、固定カメラ40が監視員から所定の距離(例えば10m)の範囲にある位置関係又は監視員が固定カメラ40から所定の距離の範囲にある位置関係である。 In the first determination method, the priority determination unit 203 gives the priority of the fixed camera 40 having the first positional relationship with the observer, and the priority when the fixed camera 40 is not in the first positional relationship with the observer. Make it lower than the degree. An imaging device having a first positional relationship with the observer, such as the fixed camera 40 in this case, is an example of the "first imaging device" of the present invention. The first positional relationship is, for example, a positional relationship in which the fixed camera 40 is within a predetermined distance (for example, 10 m) from the observer, or a positional relationship in which the observer is within a predetermined distance range from the fixed camera 40.

つまり、優先度判定部203は、監視員が近くにいる固定カメラ40の優先度を、監視員が近くにいない場合に比べて低くする。例えば或る監視エリアにおいては、3台の固定カメラ40の初期の優先度が設置場所の重要度に応じて「2」、「3」、「4」にそれぞれ定められているものとする。優先度判定部203は、第1の判定方法を用いた場合、例えば監視員が近くにいない場合において優先度が「2」の固定カメラ40について、当該固定カメラ40から所定の距離の範囲内に監視員が進入し、当該固定カメラ40が監視員と第1の位置関係になった場合、監視員と第1の位置関係にない場合の優先度(つまり「2」)よりも低い「3」又はそれ以下の優先度をその固定カメラ40の優先度とする。 That is, the priority determination unit 203 lowers the priority of the fixed camera 40 in which the observer is nearby as compared with the case where the observer is not nearby. For example, in a certain monitoring area, it is assumed that the initial priorities of the three fixed cameras 40 are set to "2", "3", and "4" according to the importance of the installation location. When the first determination method is used, for example, when the observer is not nearby, the priority determination unit 203 sets the fixed camera 40 having the priority “2” within a predetermined distance from the fixed camera 40. When the observer enters and the fixed camera 40 has the first positional relationship with the observer, "3" is lower than the priority (that is, "2") when the observer does not have the first positional relationship with the observer. A priority equal to or lower than that is set as the priority of the fixed camera 40.

第2の判定方法では、優先度判定部203は、監視員と第1の位置関係にある固定カメラ40の優先度を、監視員と第1の位置関係にない固定カメラ40の優先度に比べて低く判定する。例えば前述した監視エリアにおいて、優先度が「2」の固定カメラ40が監視員と第1の位置関係にあり、優先度が「4」の固定カメラ40が監視員と第1の位置関係になかったとすると、優先度判定部203は、第2の判定方法を用いて、前者の固定カメラ40の優先度を後者の固定カメラ40の優先度(「4」)よりも低い「5」と判定する。 In the second determination method, the priority determination unit 203 compares the priority of the fixed camera 40 having the first positional relationship with the observer with the priority of the fixed camera 40 not having the first positional relationship with the observer. To be judged low. For example, in the above-mentioned monitoring area, the fixed camera 40 having a priority of "2" has a first positional relationship with the observer, and the fixed camera 40 having a priority of "4" does not have a first positional relationship with the observer. Then, the priority determination unit 203 determines that the priority of the former fixed camera 40 is "5", which is lower than the priority of the latter fixed camera 40 ("4"), by using the second determination method. ..

なお、この場合に、第1の判定方法だけを用いれば、優先度判定部203は、優先度が「2」であった前者の固定カメラ40の優先度を、「5」と判定してもよいが、「2」よりも低ければよいので、「3」又は「4」と判定してもよい。一方、優先度が「4」の固定カメラ40が監視員と第1の位置関係にあり、優先度が「2」の固定カメラ40が監視員と第1の位置関係になかったとすると、優先度判定部203は、第2の判定方法だけを用いた場合、前者の固定カメラ40の優先度(「4」)が後者の固定カメラ40の優先度(「2」)よりも既に低いため、そのまま変更せずに「4」と判定してもよい。 In this case, if only the first determination method is used, the priority determination unit 203 may determine the priority of the former fixed camera 40, which had a priority of "2", as "5". However, since it may be lower than "2", it may be determined as "3" or "4". On the other hand, assuming that the fixed camera 40 having a priority of "4" has a first positional relationship with the observer and the fixed camera 40 having a priority of "2" does not have a first positional relationship with the observer. When the determination unit 203 uses only the second determination method, the priority of the former fixed camera 40 (“4”) is already lower than the priority of the latter fixed camera 40 (“2”), so that the determination unit 203 remains as it is. It may be determined as "4" without changing.

第3の判定方法では、優先度判定部203は、第1の位置関係にある監視員の人数が多い固定カメラ40ほど優先度を低く判定する。例えば前述した監視エリアにおいて、優先度判定部203は、優先度が「2」の固定カメラ40が1人の監視員と第1の位置関係にある場合にはその固定カメラ40の優先度を「3」と判定し、その固定カメラ40が2人の監視員と第1の位置関係にある場合にはその固定カメラ40の優先度を「4」と判定する。 In the third determination method, the priority determination unit 203 determines that the fixed camera 40 having a large number of observers in the first positional relationship has a lower priority. For example, in the above-mentioned monitoring area, when the fixed camera 40 having the priority "2" has a first positional relationship with one observer, the priority determination unit 203 sets the priority of the fixed camera 40 to ". 3 ”is determined, and when the fixed camera 40 has a first positional relationship with two observers, the priority of the fixed camera 40 is determined to be“ 4 ”.

いずれの判定方法でも、優先度をそれ以上低くできない場合(例えば優先度が「5」の固定カメラ40が監視員と第1の位置関係にある場合)には、優先度判定部203は、最も低い優先度を判定する。優先度判定部203は、第1の判定方法及び第2の判定方法のうちのいずれか又は両方を用いて判定を行い、それに加えて第3の判定方法も用いて判定を行ってもよい。 If the priority cannot be lowered further by any of the determination methods (for example, when the fixed camera 40 having the priority "5" has the first positional relationship with the observer), the priority determination unit 203 is the most. Determine low priority. The priority determination unit 203 may make a determination using either or both of the first determination method and the second determination method, and may also make a determination using a third determination method.

上記では固定カメラ40の優先度の判定方法について説明したが、監視員端末10についても優先度を判定方法するようにしてもよい。監視員端末10の場合、最低でも1人の監視員が第1の位置関係になるため、監視員端末10を装着している監視員は存在しないものとして判定する。即ち、監視員端末10と、当該監視員端末10を装着している監視員以外の別の監視員との位置関係で判定するようにしてよい。この場合に、別の監視員が監視員端末10を装着しているか否かは問わない。 Although the method of determining the priority of the fixed camera 40 has been described above, the method of determining the priority of the observer terminal 10 may also be used. In the case of the observer terminal 10, at least one observer has the first positional relationship, so it is determined that there is no observer wearing the observer terminal 10. That is, the determination may be made based on the positional relationship between the observer terminal 10 and another observer other than the observer wearing the observer terminal 10. In this case, it does not matter whether another observer is wearing the observer terminal 10.

優先度判定部203は、上述した固定カメラ40の場合と同様に、第1から第3の判定方法を用いて監視員端末10の優先度を判定する。優先度判定部203は、例えば一定時間毎(10秒毎など)に、全ての撮影装置について上記のとおり判定を行う。優先度判定部203は、判定した優先度を、判定対象の撮影装置の装置IDに対応付けて処理決定部204に供給する。 The priority determination unit 203 determines the priority of the observer terminal 10 by using the first to third determination methods, as in the case of the fixed camera 40 described above. The priority determination unit 203 determines, for example, every fixed time (every 10 seconds, etc.) for all the photographing devices as described above. The priority determination unit 203 supplies the determined priority to the processing determination unit 204 in association with the device ID of the photographing device to be determined.

処理決定部204は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する。処理決定部204は本発明の「決定手段」の一例である。映像に関する処理とは、本実施例では、上述した撮影関連処理と、異常事象を検出するための映像に対する画像処理である。処理決定部204による処理の決定とは、映像に関する処理をどのようにして行うかを決定するということである。 The processing determination unit 204 determines the processing related to the image for photographing the monitoring area according to the priority determined for the photographing device for photographing the image. The processing determination unit 204 is an example of the "determining means" of the present invention. In the present embodiment, the processing related to the moving image is the above-mentioned shooting-related processing and the image processing for the moving image for detecting an abnormal event. The processing determination by the processing determination unit 204 means determining how to perform the processing related to the video.

処理決定部204は、撮影関連処理であれば、例えば高画質な処理を行うか、低画質な処理を行うかを決定する。また、処理決定部204は、画像処理であれば、例えばリソース(CPU及びメモリ等)を十分用いた処理を行うか、リソースを節約した処理を行うかを決定する。処理決定部204は、これらの決定を、より具体的には、上述した撮影用パラメータを決定し又は画像処理用パラメータを決定することで行う。 In the case of shooting-related processing, the processing determination unit 204 determines, for example, whether to perform high-quality processing or low-quality processing. Further, in the case of image processing, the processing determination unit 204 determines, for example, whether to perform processing that sufficiently uses resources (CPU, memory, etc.) or processing that saves resources. The processing determination unit 204 makes these determinations, more specifically, by determining the shooting parameters described above or by determining the image processing parameters.

処理決定部204は、撮影関連処理については、優先度と撮影用パラメータとを対応付けた撮影用パラメータテーブルを用いて決定を行う。
図5は撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「2」、「3」、「4」、「5」という優先度に、「192万画素(1600×1200)」、「155.5万画素(1440×1080)」、「122.9万画素(1280×960)」、「78.6万画素(1024×768)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。
The processing determination unit 204 determines the shooting-related processing by using the shooting parameter table in which the priority and the shooting parameter are associated with each other.
FIG. 5 shows an example of a shooting parameter table. In this shooting parameter table, the priority order of "1", "2", "3", "4", and "5" is "1.92 million pixels (1600 x 1200)" and "1555,000 pixels (1440)". The resolutions (number of pixels) of "x1080", "12.29 million pixels (1280 x 960)", "786,000 pixels (1024 x 768)", and "307,000 pixels (640 x 480)" It is associated.

処理決定部204は、優先度判定部203から供給された優先度に撮影用パラメータテーブルで対応付けられている解像度(画素数)を、共に供給された装置IDが示す撮影装置が撮影関連処理で用いる撮影用パラメータとして決定する。処理決定部204は、決定した撮影用パラメータを決定対象の撮影装置の装置IDと共に撮影指示部205に供給する。 The processing determination unit 204 sets the resolution (number of pixels) associated with the priority supplied from the priority determination unit 203 in the shooting parameter table in the shooting-related processing by the shooting device indicated by the device ID supplied together. Determined as the shooting parameter to be used. The processing determination unit 204 supplies the determined imaging parameters to the imaging instruction unit 205 together with the device ID of the imaging device to be determined.

図5に表す撮影用パラメータテーブルは、優先度が高いほど解像度を高く(画素数を多く)している。他にも、例えば、優先度が高いほどフレームレートを高くしてもよいし、優先度が高いほど画像サイズを大きくしてもよいし、優先度が高いほど画像伝送レートを高く(伝送速度を速く)してもよい。また、優先度が高いほど圧縮率を低くし又は圧縮率の低い圧縮方式を選択してもよい。 In the shooting parameter table shown in FIG. 5, the higher the priority, the higher the resolution (the number of pixels). In addition, for example, the higher the priority, the higher the frame rate, the higher the priority, the larger the image size, and the higher the priority, the higher the image transmission rate (transmission speed). May be faster). Further, the higher the priority, the lower the compression rate, or the compression method having a lower compression rate may be selected.

いずれの場合も、処理決定部204は、撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を優先度に応じて決定し、詳細には、優先度が高いほどその単位時間当たりの送信データ量が多くなる撮影用パラメータ(解像度、フレームレート及び画像サイズ等)を決定する。これにより、撮影装置の優先度が高いほど、表示される際の映像の画質が高くなり、映像を拡大したときに細部を明瞭に表示したり、映像内の人や物の動きを滑らかにしたりすることができる。 In either case, the processing determination unit 204 determines the amount of data to be transmitted per unit time when the video obtained by the shooting-related processing is transmitted according to the priority. In detail, the higher the priority, the higher the priority. The shooting parameters (resolution, frame rate, image size, etc.) that increase the amount of transmitted data per unit time are determined. As a result, the higher the priority of the shooting device, the higher the image quality of the image when it is displayed, and when the image is enlarged, details can be clearly displayed and the movement of people and objects in the image can be smoothed. can do.

また、処理決定部204は、画像処理については、優先度とリソース量とを対応付けた画像処理用パラメータテーブルを用いて決定を行う。
図6は画像処理用パラメータテーブルの一例を表す。この画像処理用パラメータテーブルでは、「1」、「2」、「3」、「4」、「5」という優先度に、「5コア」、「4コア」、「3コア」、「2コア」、「1コア」というリソース量(CPUのコア数)が対応付けられている。
Further, the processing determination unit 204 determines the image processing by using the image processing parameter table in which the priority and the resource amount are associated with each other.
FIG. 6 shows an example of an image processing parameter table. In this image processing parameter table, the priorities of "1", "2", "3", "4", and "5" are "5 cores", "4 cores", "3 cores", and "2 cores". , And the amount of resources (the number of CPU cores) of "1 core" are associated with each other.

処理決定部204は、優先度判定部203から供給された優先度に画像処理用パラメータテーブルで対応付けられているリソース量(CPUのコア数)を、共に供給された装置IDが示す撮影装置が画像処理で用いる画像処理用パラメータとして決定する。処理決定部204は、決定した画像処理用パラメータを決定対象の撮影装置の装置IDと共に画像処理動作制御部206に供給する。 The processing determination unit 204 is a photographing device in which the device ID supplied together indicates the amount of resources (the number of CPU cores) associated with the priority supplied from the priority determination unit 203 in the image processing parameter table. Determined as an image processing parameter used in image processing. The processing determination unit 204 supplies the determined image processing parameters to the image processing operation control unit 206 together with the device ID of the photographing device to be determined.

図6に表す画像処理用パラメータテーブルは、優先度が高いほどリソース量であるコア数を多くしているが、それ以外にも、例えば、優先度が高いほど使用可能なメモリの記憶領域を大きくしてもよい。また、異常事象の検出のための画像処理は繰り返し行われるが、優先度が高いほどその画像処理の間隔を短くしても(つまり画像処理の頻度を高くしても)よい。 In the image processing parameter table shown in FIG. 6, the higher the priority, the larger the number of cores, which is the amount of resources. In addition, for example, the higher the priority, the larger the usable memory storage area. You may. Further, although the image processing for detecting an abnormal event is repeatedly performed, the higher the priority, the shorter the interval of the image processing (that is, the higher the frequency of the image processing) may be.

いずれの場合も、処理決定部204は、優先度に応じて画像処理を決定する、すなわち、画像処理をどのように行うかを決定する。詳細には、処理決定部204は、画像処理が行われる際に単位時間当たりに処理されるデータ量を優先度に応じて決定する。上記の各例においては、処理決定部204は、優先度が高いほどその単位時間当たりに処理されるデータ量が多くなる画像処理用パラメータ(リソース量、画像処理の間隔及び頻度等)を決定する。 In either case, the processing determination unit 204 determines the image processing according to the priority, that is, determines how the image processing is performed. Specifically, the processing determination unit 204 determines the amount of data to be processed per unit time when the image processing is performed according to the priority. In each of the above examples, the processing determination unit 204 determines image processing parameters (resource amount, image processing interval and frequency, etc.) in which the amount of data processed per unit time increases as the priority is higher. ..

これにより、撮影装置の優先度が高いほど、映像のデータ量が同じであれば画像処理に要する時間が短くなる。その結果、撮影装置の優先度を一律にする場合に比べて、優先度の高い撮影装置の映像、すなわち監視の観点で重要な映像ほど、その映像からの異常事象の発生の検出をより迅速に行うことができる。 As a result, the higher the priority of the photographing device, the shorter the time required for image processing if the amount of video data is the same. As a result, the higher the priority of the image of the photographing device, that is, the image that is important from the viewpoint of monitoring, the faster the detection of the occurrence of an abnormal event from the image is performed, as compared with the case where the priority of the photographing device is made uniform. It can be carried out.

撮影指示部205は、処理決定部204により決定された撮影関連処理の実行を撮影装置に指示する。撮影指示部205は、処理決定部204から供給された撮影用パラメータを用いることを指示する指示データを生成し、生成した指示データを共に供給された装置IDが示す撮影装置(監視員端末10又は固定カメラ40)に送信する。例えば監視員端末10であれば、撮影動作制御部105が、送信されてきた指示データが示す撮影用パラメータを用いるよう撮影部103及び映像送信部104を制御することで、撮影指示部205から指示された撮影関連処理を実行する。 The shooting instruction unit 205 instructs the shooting device to execute the shooting-related processing determined by the processing determination unit 204. The shooting instruction unit 205 generates instruction data instructing to use the shooting parameters supplied from the processing determination unit 204, and the shooting device (observer terminal 10 or the monitoring device terminal 10 or) indicated by the device ID supplied with the generated instruction data. It is transmitted to the fixed camera 40). For example, in the case of the observer terminal 10, the shooting operation control unit 105 gives an instruction from the shooting instruction unit 205 by controlling the shooting unit 103 and the video transmission unit 104 so as to use the shooting parameters indicated by the transmitted instruction data. Executes the shooting-related processing that has been performed.

画像処理動作制御部206は、処理決定部204により決定された画像処理を実行するよう画像処理部207の動作を制御する。画像処理動作制御部206は、処理決定部204から供給された画像処理用パラメータ及び装置IDを画像処理部207に供給し、その装置IDと共に供給された映像についての画像処理を、その画像処理用パラメータを用いて行うよう画像処理の動作を制御する。 The image processing operation control unit 206 controls the operation of the image processing unit 207 so as to execute the image processing determined by the processing determination unit 204. The image processing operation control unit 206 supplies the image processing parameters and the device ID supplied from the processing determination unit 204 to the image processing unit 207, and performs image processing on the image supplied together with the device ID for the image processing. Control the operation of image processing so that it is performed using parameters.

画像処理部207は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行う。画像処理部207は、例えば、特開2002−262282号公報に開示された監視対象区域の画像から異常を検出する技術及び特開2012−004720号公報に開示された映像データから特定の人物の異常行動を検出する技術等を応用して、撮影された監視エリアの映像を解析して異常事象の発生を検出する。 The image processing unit 207 performs image processing on the images of the photographing devices (observer terminal 10 and fixed camera 40) acquired by the observer terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. The image processing unit 207 has, for example, a technique for detecting an abnormality from an image of a monitored area disclosed in Japanese Patent Application Laid-Open No. 2002-262282 and an abnormality of a specific person from video data disclosed in Japanese Patent Application Laid-Open No. 2012-004720. By applying the technology to detect behavior, etc., the image of the captured monitoring area is analyzed to detect the occurrence of an abnormal event.

画像処理部207は、画像処理により異常事象の発生を検出すると、その旨と検出に用いた映像を撮影した撮影装置の装置IDとを示す情報を報知部208に供給する。報知部208は、この情報を受け取ると、例えば、異常事象が発生した旨と装置IDとを示す報知情報を生成してオペレータ端末30に送信する。オペレータ端末30の報知情報表示部301は、送信されてきた報知情報を表示する。オペレータは、こうして表示された報知情報を見て異常事象の発生に気付き、監視員と連絡を取って異常事象に対処する。 When the image processing unit 207 detects the occurrence of an abnormal event by image processing, the image processing unit 207 supplies the notification unit 208 with information indicating that fact and the device ID of the photographing device that captured the image used for the detection. Upon receiving this information, the notification unit 208 generates, for example, notification information indicating that an abnormal event has occurred and the device ID, and transmits the notification information to the operator terminal 30. The notification information display unit 301 of the operator terminal 30 displays the transmitted notification information. The operator notices the occurrence of the abnormal event by looking at the notification information displayed in this way, and contacts the observer to deal with the abnormal event.

画像処理部207は、上記検出を行うと、検出に用いた映像を撮影した撮影装置から取得された監視員端末情報又は固定カメラ情報を発生場所特定部209に供給する。発生場所特定部209は、監視エリア内で発生した異常事象の発生場所を特定する。発生場所特定部209は本発明の「特定手段」の一例である。 When the image processing unit 207 performs the above detection, the image processing unit 207 supplies the observer terminal information or the fixed camera information acquired from the photographing device that captured the image used for the detection to the generation location specifying unit 209. The occurrence location identification unit 209 identifies the occurrence location of the abnormal event that occurred in the monitoring area. The generation location specifying unit 209 is an example of the "specific means" of the present invention.

発生場所特定部209は、本実施例では、画像処理部207から供給された監視員端末情報又は固定カメラ情報に含まれている位置情報が示す位置、すなわち異常事象の発生の検出に用いられた映像を撮影した撮影装置の位置を、異常事象の発生場所として特定する。なお、発生場所の特定方法はこれに限らない。例えば、各固定カメラ40の撮影範囲が決まっている場合に、発生場所特定部209は、その撮影範囲の中心を示す位置情報を装置IDに対応付けて記憶しておく。 In this embodiment, the occurrence location identification unit 209 is used to detect the occurrence of an abnormal event, that is, the position indicated by the position information included in the observer terminal information or the fixed camera information supplied from the image processing unit 207. The position of the photographing device that captured the image is specified as the place where the abnormal event occurs. The method of specifying the place of occurrence is not limited to this. For example, when the shooting range of each fixed camera 40 is determined, the generation location specifying unit 209 stores the position information indicating the center of the shooting range in association with the device ID.

発生場所特定部209は、画像処理部207から供給された固定カメラ情報に含まれている装置IDに対応付けて記憶している位置情報が示す位置を、異常事象の発生場所として特定してもよい。また、各撮影装置が自装置の撮影手段の光軸の向きを検出して監視員端末情報又は固定カメラ情報に含めて送信してくる場合に、発生場所特定部209は、異常事象の発生の検出に用いられた映像を撮影した撮影装置の位置からその光軸の向きに所定の距離だけ移動した位置を発生場所として特定してもよい。発生場所特定部209は、特定した発生場所を示す発生場所情報を優先度判定部203に供給する。 Even if the occurrence location identification unit 209 specifies the position indicated by the position information stored in association with the device ID included in the fixed camera information supplied from the image processing unit 207 as the occurrence location of the abnormal event. good. Further, when each photographing device detects the direction of the optical axis of the photographing means of the own device and transmits the information by including it in the observer terminal information or the fixed camera information, the occurrence location identification unit 209 causes an abnormal event to occur. A position moved by a predetermined distance in the direction of the optical axis from the position of the photographing device that captured the image used for the detection may be specified as the generation location. The generation location specifying unit 209 supplies the generation location information indicating the specified occurrence location to the priority determination unit 203.

画像処理部207が異常事象の発生を検出した場合の優先度の判定方法として、さらに3つの判定方法を説明する。以下では固定カメラ40の優先度を判定する場合を説明する。第4の判定方法では、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40の優先度を、その発生場所と第2の位置関係にない場合に比べて高く判定する。この場合の固定カメラ40のように異常事象の発生場所と第2の位置関係にある撮影装置は本発明の「第2撮影装置」の一例である。 Three more determination methods will be described as methods for determining the priority when the image processing unit 207 detects the occurrence of an abnormal event. The case of determining the priority of the fixed camera 40 will be described below. In the fourth determination method, the priority determination unit 203 sets the priority of the fixed camera 40, which has a second positional relationship with the occurrence location specified by the occurrence location identification unit 209, to the occurrence location and the second positional relationship. Judge higher than when not in. An imaging device having a second positional relationship with the place where an abnormal event occurs, such as the fixed camera 40 in this case, is an example of the “second imaging device” of the present invention.

第2の位置関係とは、例えば、第1の位置関係と同様に、固定カメラ40が異常事象の発生場所から所定の距離(例えば10m)の範囲にある位置関係又は異常事象の発生場所が固定カメラ40から所定の距離の範囲にある位置関係である。つまり、優先度判定部203は、異常事象の発生場所の近くの固定カメラ40の優先度を、異常事象の発生場所が遠かった場合に比べて高くする。 The second positional relationship is, for example, similar to the first positional relationship, the positional relationship in which the fixed camera 40 is within a predetermined distance (for example, 10 m) from the location where the abnormal event occurs, or the location where the abnormal event occurs is fixed. It is a positional relationship within a predetermined distance range from the camera 40. That is, the priority determination unit 203 raises the priority of the fixed camera 40 near the place where the abnormal event occurs, as compared with the case where the place where the abnormal event occurs is far away.

優先度判定部203は、第4の判定方法を用いた場合、例えば上述した或る監視エリアにおいて優先度が「3」の固定カメラ40が異常事象の発生場所と第2の位置関係にある場合、異常事象の発生場所と第2の位置関係にない場合の優先度(つまり「3」)よりも高い「2」又は「1」という優先度をその固定カメラ40の優先度として判定する。なお、この固定カメラ40は、異常事象発生の検出に用いられた映像を撮影したものである場合もあるが、異常事象を撮影はしていないが発生場所の近くに設置されていた固定カメラ40の場合もある。 When the priority determination unit 203 uses the fourth determination method, for example, when the fixed camera 40 having the priority "3" in the above-mentioned certain monitoring area has a second positional relationship with the place where the abnormal event occurs. , The priority of "2" or "1", which is higher than the priority (that is, "3") when there is no second positional relationship with the place where the abnormal event occurs, is determined as the priority of the fixed camera 40. The fixed camera 40 may have captured an image used for detecting the occurrence of an abnormal event, but the fixed camera 40 has not captured the abnormal event but has been installed near the place where the abnormal event has occurred. In some cases.

第5の判定方法が用いられる場合、その前提として、第1の判定方法が用いられているものとする。その上で、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40が監視者と第1の位置関係にある場合、その固定カメラ40の優先度を、監視者と第1の位置関係にない場合に比べて低くしない。つまり、優先度判定部203は、通常は、監視員が近くにいる固定カメラ40の優先度を、監視員が近くにいない場合に比べて低くするが、異常事象の発生場所が近い場合には、その例外として、優先度を低くしないようにする。 When the fifth determination method is used, it is assumed that the first determination method is used as a premise. Then, when the fixed camera 40 having the second positional relationship with the occurrence location specified by the occurrence location identification unit 209 has the first positional relationship with the observer, the priority determination unit 203 raises the fixed camera 40. The priority of is not lowered as compared with the case where there is no first positional relationship with the observer. That is, the priority determination unit 203 normally lowers the priority of the fixed camera 40 in which the observer is nearby as compared with the case where the observer is not nearby, but when the place where the abnormal event occurs is near, the priority determination unit 203 lowers the priority. As an exception, do not lower the priority.

例えば前述した優先度が「3」の固定カメラ40が監視員と第1の位置関係にある場合、通常なら優先度を低くして「4」以下にするところ、異常事象の発生場所と第2の位置関係にもあるので、優先度判定部203は、第5の判定方法を用いて、その優先度を監視員と第1の位置関係にない場合の「3」よりも低くしない、すなわち「3」又はそれよりも高い優先度と判定する。 For example, when the fixed camera 40 having the above-mentioned priority of "3" has the first positional relationship with the observer, the priority is usually lowered to "4" or less, but the place where the abnormal event occurs and the second The priority determination unit 203 uses the fifth determination method and does not lower the priority to "3" when the observer is not in the first positional relationship with the observer, that is, "3". 3 ”or higher priority is determined.

なお、優先度判定部203は、第1の判定方法に加えて第4の判定方法を前提として用いてもよい。その場合に、前述した優先度が「3」の固定カメラ40が監視員と第1の位置関係にあり且つ異常事象の発生場所と第2の位置関係にもあるものとする。その場合、優先度判定部203は、その固定カメラ40が監視員と第1の位置関係にない場合に比べて優先度を低くせず、且つ、その固定カメラ40が異常事象の発生場所と第2の位置関係にない場合に比べて優先度を高くする。要するに、優先度判定部203は、例えば固定カメラ40の優先度が「3」であったなら、それよりも高い「2」又は「1」をその固定カメラ40の優先度として判定する。 The priority determination unit 203 may be used on the premise of a fourth determination method in addition to the first determination method. In that case, it is assumed that the fixed camera 40 having the priority of "3" described above has a first positional relationship with the observer and also has a second positional relationship with the place where the abnormal event occurs. In that case, the priority determination unit 203 does not lower the priority as compared with the case where the fixed camera 40 is not in the first positional relationship with the observer, and the fixed camera 40 is the place where the abnormal event occurs and the first. The priority is higher than when there is no positional relationship of 2. In short, if the priority of the fixed camera 40 is "3", the priority determination unit 203 determines, for example, "2" or "1", which is higher than that, as the priority of the fixed camera 40.

第6の判定方法も、前提として、第1の判定方法が用いられているものとする。その上で、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40の優先度を、他の撮影装置に比べて低くしない。例えば優先度が「4」の固定カメラ40が異常事象の発生場所と第2の位置関係にあり、優先度が「2」の固定カメラ40が異常事象の発生場所と第2の位置関係にないとする。 As a premise, the sixth determination method also assumes that the first determination method is used. On that basis, the priority determination unit 203 does not lower the priority of the fixed camera 40, which has a second positional relationship with the generation location specified by the generation location identification unit 209, as compared with other photographing devices. For example, the fixed camera 40 having a priority of "4" has a second positional relationship with the place where the abnormal event occurs, and the fixed camera 40 having the priority "2" does not have a second positional relationship with the place where the abnormal event occurs. And.

その場合、優先度判定部203は、第6の判定方法を用いて、前者の固定カメラ40の優先度を後者の固定カメラ40の優先度である「2」又はそれよりも高い「1」と判定する。なお、この例において、異常事象の発生場所と第2の位置関係にある固定カメラ40が他にも存在する場合、優先度判定部203は、第6の判定方法を用いて、異常事象の発生場所と第2の位置関係にある複数の固定カメラ40の優先度をいずれも「2」又は「1」と判定する(互いに相手の優先度よりも低くならないから)。 In that case, the priority determination unit 203 uses the sixth determination method to set the priority of the former fixed camera 40 to "2" which is the priority of the latter fixed camera 40 or "1" which is higher than that. judge. In this example, when there is another fixed camera 40 having a second positional relationship with the place where the abnormal event occurs, the priority determination unit 203 uses the sixth determination method to generate the abnormal event. The priority of the plurality of fixed cameras 40 having a second positional relationship with the location is determined to be "2" or "1" (because they are not lower than the priority of each other).

また、優先度が「2」の固定カメラ40が異常事象の発生場所と第2の位置関係にあり、優先度が「4」の固定カメラ40が異常事象の発生場所と第2の位置関係にないとする。その場合、優先度判定部203は、第6の判定方法を用いると、前者の固定カメラ40の優先度が後者の固定カメラ40の優先度よりも既に高いので、そのまま「2」と判定してもよいし、優先度を高くして「1」と判定してもよい。なお、第6の判定方法だけでなく第4の判定方法も用いる場合は、優先度を高くして「1」と判定する。 Further, the fixed camera 40 having a priority of "2" has a second positional relationship with the place where the abnormal event occurs, and the fixed camera 40 having the priority "4" has a second positional relationship with the place where the abnormal event occurs. Suppose there is no. In that case, when the sixth determination method is used, the priority determination unit 203 determines that the priority of the former fixed camera 40 is already higher than the priority of the latter fixed camera 40, and therefore determines "2" as it is. Alternatively, the priority may be increased to determine "1". When not only the sixth determination method but also the fourth determination method is used, the priority is increased and the determination is made as "1".

監視システム1が備える各装置は、上記構成に基づいて、監視エリアを撮影する映像に関する処理を、各撮影装置の優先度に基づいて行う優先度処理を行う。
図7は優先度処理における各装置の動作手順の一例を表す。この動作手順は、例えば、各装置の電源が投入されて監視エリアにおける監視が開始されることを契機に開始される。まず、監視員端末10(測位部101)が、自装置の位置を測定する(ステップS11)。次に、監視員端末10(位置情報送信部102)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS12)。
Based on the above configuration, each device included in the monitoring system 1 performs priority processing for performing processing related to an image for shooting a monitoring area based on the priority of each shooting device.
FIG. 7 shows an example of the operation procedure of each device in the priority processing. This operation procedure is started, for example, when the power of each device is turned on and monitoring in the monitoring area is started. First, the observer terminal 10 (positioning unit 101) measures the position of the own device (step S11). Next, the observer terminal 10 (position information transmission unit 102) transmits the measured position information indicating the position of the own device to the monitoring center server device 20 (step S12).

また、監視員端末10(撮影部103)は、自装置の周囲の映像を撮影する(ステップS13)。次に、監視員端末10(映像送信部104)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS14)。監視センタサーバ装置20(監視員端末情報取得部201)は、監視員端末10から送信されてきた位置情報及び映像を監視員端末情報として取得する(ステップS15)。 Further, the observer terminal 10 (shooting unit 103) shoots an image around the own device (step S13). Next, the observer terminal 10 (video transmission unit 104) transmits the captured video around the own device to the monitoring center server device 20 (step S14). The monitoring center server device 20 (monitoring terminal information acquisition unit 201) acquires the position information and the video transmitted from the monitoring staff terminal 10 as the monitoring staff terminal information (step S15).

固定カメラ40(撮影部401)は、自装置の周囲の映像を撮影する(ステップS21)。次に、固定カメラ40(映像送信部402)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS22)。監視センタサーバ装置20(固定カメラ情報取得部202)は、固定カメラ40から送信されてきた映像と、その固定カメラ40の位置情報とを固定カメラ情報として取得する(ステップS23)。ステップS11〜S15と、S21〜S23との各動作群は、並行して繰り返し行われる。 The fixed camera 40 (shooting unit 401) captures an image of the surroundings of the own device (step S21). Next, the fixed camera 40 (video transmission unit 402) transmits the captured video around the own device to the monitoring center server device 20 (step S22). The monitoring center server device 20 (fixed camera information acquisition unit 202) acquires the image transmitted from the fixed camera 40 and the position information of the fixed camera 40 as fixed camera information (step S23). Each operation group of steps S11 to S15 and S21 to S23 is repeated in parallel.

監視センタサーバ装置20(画像処理部207)は、取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行い、監視エリア内での異常事象の発生を検出する(ステップS31)。監視センタサーバ装置20(発生場所特定部209)は、異常事象の発生が検出された場合に、その異常事象の発生場所を特定する(ステップS32)。ステップS31及びS32の動作は、異常事象の発生が検出されない場合は行われない。 The monitoring center server device 20 (image processing unit 207) performs image processing on the acquired images of the photographing device (monitor terminal 10 and fixed camera 40), and detects the occurrence of an abnormal event in the monitoring area. (Step S31). When the occurrence of an abnormal event is detected, the monitoring center server device 20 (occurrence location specifying unit 209) identifies the location where the abnormal event occurs (step S32). The operations of steps S31 and S32 are not performed when the occurrence of an abnormal event is not detected.

監視センタサーバ装置20(優先度判定部203)は、取得された各撮影装置の位置情報と、異常事象の発生が検出された場合には特定されたその発生場所とに基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する(ステップS41)。次に、監視センタサーバ装置20(処理決定部204)は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する(ステップS42)。 The monitoring center server device 20 (priority determination unit 203) performs a plurality of shootings based on the acquired position information of each shooting device and the location where the occurrence of an abnormal event is detected. The priority of each of the devices (observer terminal 10 and fixed camera 40) is determined (step S41). Next, the monitoring center server device 20 (processing determination unit 204) determines the processing related to the image for photographing the monitoring area according to the priority determined for the photographing device for photographing the image (step S42).

続いて、監視センタサーバ装置20(撮影指示部205)は、決定された撮影関連処理の実行を撮影装置に指示するための指示データを生成して(ステップS43)、その指示データを撮影装置(この例では監視員端末10)に送信する(ステップS44)。監視員端末10(撮影動作制御部105)は、受け取った指示データが示す指示のとおりに、自装置の撮影に関する動作を制御する(ステップS45)。また、監視センタサーバ装置20(画像処理動作制御部206)は、決定された画像処理を実行するように、自装置が行う画像処理の動作を制御する(ステップS46)。 Subsequently, the monitoring center server device 20 (shooting instruction unit 205) generates instruction data for instructing the shooting device to execute the determined shooting-related processing (step S43), and uses the instruction data as the shooting device (step S43). In this example, the data is transmitted to the observer terminal 10) (step S44). The observer terminal 10 (shooting operation control unit 105) controls the movement related to shooting of the own device according to the instruction indicated by the received instruction data (step S45). Further, the monitoring center server device 20 (image processing operation control unit 206) controls the operation of the image processing performed by the own device so as to execute the determined image processing (step S46).

複数の撮影装置が撮影した映像を用いて監視エリアを監視する場合、上述した映像に関する処理の負荷(通信や異常検出のための画像処理等の負荷)が過大になると、処理に遅延が生じてしまい、異常事象への対応の遅れに繋がるおそれがある。それを避けるためは、映像に関する処理の負荷を小さくするとよいが、負荷を小さくすると、映像の画質が低くなったり画像処理の所要時間が長くなったりして、その映像が映す監視エリアの監視が不十分になることがある。 When monitoring a monitoring area using images captured by a plurality of imaging devices, if the processing load related to the above-mentioned images (load of image processing for communication and abnormality detection) becomes excessive, processing delays occur. This may lead to a delay in responding to abnormal events. In order to avoid this, it is better to reduce the processing load related to the video, but if the load is reduced, the image quality of the video will be low and the time required for image processing will be long, and the monitoring area where the video is projected will be monitored. May be inadequate.

本実施例では、監視員が近くにいて(第1の位置関係にあって)周辺の監視が十分に行われている撮影装置の優先度を低くしているので(第1の判定方法)、撮影装置の優先度を低くして監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを、監視員の位置に関係なく優先度を判定する場合に比べて抑制することができる。また、監視員が近くにいる撮影装置の優先度を監視員が近くにいない(第1の位置関係にない)撮影装置よりも低くするので(第2の判定方法)、監視員が近くにいない撮影装置の映像に関する処理が、監視員が近くにいる撮影装置の映像に関する処理よりも迅速に行われるようにすることができる。 In this embodiment, since the observer is nearby (in the first positional relationship) and the priority of the photographing apparatus in which the surroundings are sufficiently monitored is lowered (first determination method). Insufficient monitoring when the priority of the imaging device is lowered to reduce the processing load related to the video in the surveillance area is suppressed compared to the case where the priority is determined regardless of the position of the observer. Can be done. In addition, since the priority of the imaging device in which the observer is nearby is lower than that of the imaging device in which the observer is not nearby (not in the first positional relationship) (second determination method), the observer is not nearby. The processing related to the image of the photographing device can be performed more quickly than the processing related to the image of the photographing device in which the observer is nearby.

また、本実施例では、近くにいる監視員が多い撮影装置ほど優先度を低くするので(第3の判定方法)、近くにいる監視員の人数に関わらず優先度が一律な場合に比べて、監視員が近くにいない撮影装置の映像に関する処理が、監視員が近くにいる撮影装置の映像に関する処理よりもより迅速に行われるようにすることができる。また、異常事象の発生場所の近くにある(第2の位置関係にある)撮影装置の優先度を高くするので(第4の判定方法)、優先度を一律にする場合に比べて、異常事象の発生場所及びその付近の監視を強化することができる。 Further, in this embodiment, the priority is lowered as the number of observers nearby is higher (third determination method), so that the priority is uniform regardless of the number of observers nearby. , The processing related to the image of the photographing device in which the observer is not nearby can be performed more quickly than the processing related to the image of the photographing device in which the observer is nearby. In addition, since the priority of the imaging device (which is in the second positional relationship) near the place where the abnormal event occurs is increased (fourth determination method), the abnormal event is compared with the case where the priority is made uniform. It is possible to strengthen the monitoring of the place where the disease occurs and its vicinity.

また、本実施例では、異常事象の発生場所の近くにある撮影装置の近くに監視員がいても、その優先度を監視員が近くにいない場合に比べて低くしないので(第5の判定方法)、この優先度を低くする場合に比べて、異常事象の発生場所及びその付近の監視が不十分になることを抑制することができる。また、異常事象の発生場所に近い撮影装置の優先度をそうでない撮影装置に比べて低くしないので(第6の判定方法)、異常事象の発生場所に近い撮影装置の映像に関する処理が、そうでない撮影装置の映像に関する処理よりも迅速か少なくとも同等の速さで行われるようにすることができる。 Further, in this embodiment, even if there is an observer near the imaging device near the place where the abnormal event occurs, the priority is not lowered as compared with the case where the observer is not nearby (fifth determination method). ), It is possible to suppress insufficient monitoring of the place where the abnormal event occurs and its vicinity as compared with the case of lowering this priority. In addition, since the priority of the photographing device near the place where the abnormal event occurs is not lower than that of the photographing device not (sixth determination method), the processing related to the image of the photographing device near the place where the abnormal event occurs is not so. It can be made faster or at least as fast as the video processing of the imaging device.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modifications The above-mentioned examples are merely examples of the implementation of the present invention, and may be modified as follows. Further, the examples and the respective modifications may be carried out in combination as necessary.

[2−1]映像内の監視員の人数
優先度の判定の際に、撮影装置の映像に映っている監視員の人数を考慮してもよい。例えば、画像処理部207が、取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行い、その映像に映っている監視員の人数を判定する。画像処理部207は、例えば監視員の制服の形及び色等の特徴を示す情報を記憶しておき、周知のマッチング技術を用いて映像内の監視員を抽出し、その人数を判定する。
[2-1] Number of observers in the image The number of observers in the image of the photographing device may be taken into consideration when determining the priority. For example, the image processing unit 207 performs image processing on the acquired image of the photographing device (observer terminal 10 and fixed camera 40), and determines the number of observers shown in the image. The image processing unit 207 stores information indicating features such as the shape and color of the uniform of the observer, extracts the observer in the video using a well-known matching technique, and determines the number of the observer.

画像処理部207は、判定した人数を、判定対象の映像を撮影した撮影装置の装置IDと共に優先度判定部203に供給する。優先度判定部203は、画像処理部207により判定された監視員の人数が多い撮影装置ほど優先度を低くする。この判定方法は、監視員の人数の求め方は異なるが、それ以外は第3の判定方法と共通している。本変形例によれば、監視員端末10のように位置の測定が可能な端末を所持していない監視員の人数も考慮して優先度を判定することができる。 The image processing unit 207 supplies the determined number of people to the priority determination unit 203 together with the device ID of the photographing device that has captured the image to be determined. The priority determination unit 203 lowers the priority as the number of observers determined by the image processing unit 207 is larger. This determination method is the same as the third determination method except that the method of obtaining the number of observers is different. According to this modification, the priority can be determined in consideration of the number of observers who do not have a terminal capable of measuring the position such as the observer terminal 10.

[2−2]監視員への指示
異常事象の発生場所に監視員を向かわせる指示をオペレータに代わって装置が行ってもよい。例えば、監視センタサーバ装置20が、図4に表す各部に加えて監視員所在判定部と、指示処理実行部とを備える。
[2-2] Instruction to the observer The device may give an instruction to direct the observer to the place where the abnormal event occurs on behalf of the operator. For example, the monitoring center server device 20 includes a monitoring staff location determination unit and an instruction processing execution unit in addition to the units shown in FIG.

監視員所在判定部には、発生場所特定部209から発生場所情報が、監視員端末情報取得部201から監視員端末情報が供給される。監視員所在判定部は、供給されたこれらの情報が表す発生場所と監視員の位置とに基づき、異常事象の発生場所と上述した第2の位置関係にある監視員の有無を判定する。監視員所在判定部は、そのような監視員がいないと判定すると、発生場所情報を指示処理実行部に供給する。 Occurrence location information is supplied from the occurrence location identification unit 209 to the observer location determination unit, and observer terminal information is supplied from the observer terminal information acquisition unit 201. The observer location determination unit determines the presence / absence of the observer who has the above-mentioned second positional relationship with the occurrence location of the abnormal event based on the occurrence location represented by the supplied information and the position of the observer. When the observer location determination unit determines that there is no such observer, it supplies the occurrence location information to the instruction processing execution unit.

指示処理実行部は、監視員所在判定部により第2の位置関係にある監視員がいないと判定された場合に、その発生場所に監視員を向かわせる指示を行うための処理を実行する。指示処理実行部は、監視員所在判定部から発生場所情報が供給されると、そのような監視員がいないと判定されたと判断し、その発生場所情報が示す発生場所とそこへ向かうことを指示する指示データを生成して各監視員端末10に送信する。 When it is determined by the observer location determination unit that there is no observer in the second positional relationship, the instruction processing execution unit executes a process for giving an instruction to direct the observer to the place where the observer is generated. When the occurrence location information is supplied from the observer location determination unit, the instruction processing execution unit determines that there is no such observer, and instructs the occurrence location indicated by the occurrence location information and heading there. Instructed data to be generated is generated and transmitted to each observer terminal 10.

監視員端末10は、指示データを受け取ると、その指示データが示す指示及び異常事象の発生場所を表示する。これを見た監視員は、表示された発生場所に向かう指示がされたことを認識する。これにより、例えば異常事象の発生時にオペレータによる指示が何かの事情で遅れることがあっても、その異常事象の発生場所に監視員を向かわせることができる。 When the observer terminal 10 receives the instruction data, the observer terminal 10 displays the instruction indicated by the instruction data and the place where the abnormal event occurs. Upon seeing this, the watchman recognizes that he has been instructed to go to the displayed location. As a result, for example, even if the instruction by the operator is delayed for some reason when an abnormal event occurs, the observer can be directed to the place where the abnormal event occurs.

[2−3]位置関係
第1及び第2の位置関係は、上述したものに限らない。例えば、監視員と第1の位置関係にある固定カメラ40として、固定カメラ40の撮影範囲の中心から所定の距離の範囲に監視員がいる関係又は監視員から所定の距離の範囲に固定カメラ40の撮影範囲の中心が含まれる関係であってもよい。また、固定カメラ40の撮影範囲に監視員がいる関係であってもよい。
[2-3] Positional relationship The first and second positional relationships are not limited to those described above. For example, as the fixed camera 40 having the first positional relationship with the observer, the fixed camera 40 is located within a predetermined distance from the center of the shooting range of the fixed camera 40 or within a predetermined distance from the observer. The relationship may include the center of the shooting range of. Further, there may be a relationship in which a watchman is in the shooting range of the fixed camera 40.

また、固定カメラ40が設置されている区画に監視員がいる関係又は監視員がいる区画に固定カメラ40が設置されている関係であってもよい。この区画は、例えば街の区画や建物内の区画、監視エリア内の状況や環境に合わせて設定された区画などである。区画の形は、四角形でもよいし、街や建物、通り、通路などの形に合わせた凹凸のある形であってもよい。以上の位置関係は、異常事象の発生場所と撮影装置との第2の位置関係について適用してもよい。 Further, the fixed camera 40 may be installed in the section where the fixed camera 40 is installed, or the fixed camera 40 may be installed in the section where the watcher is installed. This section is, for example, a section in a city, a section in a building, a section set according to the situation or environment in a monitoring area, and the like. The shape of the section may be a quadrangle, or may be an uneven shape that matches the shape of a city, a building, a street, a passage, or the like. The above positional relationship may be applied to the second positional relationship between the place where the abnormal event occurs and the photographing apparatus.

いずれの場合も、撮影装置と監視員が第1の位置関係になっていれば、その撮影装置が撮影する監視エリアの領域をその監視員が監視できるよう(常時でなくともすぐに監視できる状態)になっていればよい。また、異常事象の発生場所と撮影装置が第2の位置関係になっていれば、その発生場所及び(又は)その周辺をその撮影装置が撮影できるよう(常時でなくともカメラの向きを変えれば監視できる状態)になっていればよい。 In either case, if the imaging device and the observer are in the first positional relationship, the observer can monitor the area of the monitoring area photographed by the imaging device (a state in which the observer can monitor immediately, if not always). ). Also, if the location where the abnormal event occurs and the imaging device have a second positional relationship, the imaging device can photograph the location and / or its surroundings (if the direction of the camera is changed, if not always). It suffices if it is in a state where it can be monitored).

[2−4]画像処理用パラメータ
処理決定部204は、実施例とは異なる画像処理用パラメータを決定してもよい。例えば、処理決定部204は、複数の映像に対する画像処理が順番に行われる場合に、その順番を画像処理用パラメータとして、優先度に応じて決定する。処理決定部204は、例えば、優先度が高い撮影装置の映像ほど先に画像処理が行われるよう順番を決定する。
[2-4] Image processing parameters The processing determination unit 204 may determine image processing parameters different from those in the embodiment. For example, when image processing for a plurality of videos is performed in order, the processing determination unit 204 determines the order as an image processing parameter according to the priority. For example, the processing determination unit 204 determines the order so that the image processing is performed first for the image of the photographing device having a higher priority.

なお、画像処理の順番以外にも、処理決定部204は、映像に対する画像処理の終了時間が変化する画像処理用パラメータを優先度に応じて決定してもよい。いずれの場合も、撮影装置の優先度が高いほど、その映像に対する画像処理が早く終わるので、その撮影装置の撮影範囲で発生した異常事象にオペレータ等がより早く気付くことができる。 In addition to the order of image processing, the processing determination unit 204 may determine an image processing parameter in which the end time of image processing for the video changes according to the priority. In either case, the higher the priority of the photographing device, the faster the image processing for the image is completed, so that the operator or the like can notice the abnormal event occurring in the photographing range of the photographing device earlier.

[2−5]撮影装置
上記の実施例では、監視エリアの映像を撮影する撮影装置として監視員端末10及び固定カメラ40が用いられたが、どちらか一方だけが用いられてもよい。その場合でも、上記の各判定方法で優先度が判定されることで、映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制したり、異常事象の発生場所及びその付近の監視を強化したりすることができる。
[2-5] Imaging Device In the above embodiment, the observer terminal 10 and the fixed camera 40 are used as the imaging device for capturing the image of the surveillance area, but only one of them may be used. Even in that case, by determining the priority by each of the above determination methods, it is possible to prevent insufficient monitoring when the processing load related to video is reduced, or to prevent an abnormal event from occurring in or near the location. Surveillance can be strengthened.

[2−6]優先度
優先度は、上記の各例とは異なる表し方をしてもよい。例えば「Lv1、Lv2、・・」や「A、B、C、・・」、「高、中、低」など、指標としての上限関係を表す記号や文字、図形などが用いられてもよい。要するに、撮影装置の優先度が高いものと低いものとを判別できれば、どのように表された優先度が用いられてもよい。
[2-6] Priority The priority may be expressed differently from each of the above examples. For example, symbols, characters, figures, etc. representing the upper limit relationship as an index such as "Lv1, Lv2, ...", "A, B, C, ...", "High, Medium, Low" may be used. In short, any representation of the priority may be used as long as it is possible to distinguish between the high priority and the low priority of the photographing apparatus.

[2−7]監視エリアの監視者
上記の実施例では、監視エリアに配置された監視員が監視エリアの現場で監視の役割を果たす監視者であったが、これに限らない。例えば、監視エリア内で働く監視員以外のスタッフが監視者であってもよい。スタッフとは、具体的には、例えばマラソン会場が監視エリアである場合、会場の案内員、コース整理員、給水スタッフ、観客の誘導員などであり、スタジアム等が監視エリアである場合、監視員に相当する警備員の他、チケットの販売員、店舗の店員、清掃員などである。また、人間に限らず、例えば監視用のカメラが内蔵された自走式のロボットやドローン、監視員端末を装着した動物(警察犬のように訓練された犬等)などであってもよい。
[2-7] Monitorer in the monitoring area In the above embodiment, the observer assigned to the monitoring area is the observer who plays the role of monitoring at the site of the monitoring area, but the present invention is not limited to this. For example, a staff member other than the watchman working in the watch area may be the watchman. Specifically, the staff is, for example, when the marathon venue is a monitoring area, a guide of the venue, a course organizer, a water supply staff, a guide for spectators, etc., and when a stadium or the like is a monitoring area, a guard. In addition to security guards equivalent to, ticket sales staff, store clerk, cleaning staff, etc. Further, the present invention is not limited to humans, and may be, for example, a self-propelled robot or drone having a built-in surveillance camera, an animal equipped with an observer terminal (a dog trained like a police dog, etc.).

[2−8]各機能を実現する装置
図4等に表す機能を実現する装置は、上述した各装置に限らない。例えば、監視センタサーバ装置が入力装置及び出力装置を備えておいて、オペレータ端末30が備える各部を実現してもよい。また、反対に、監視センタサーバ装置20が備える各部をオペレータ端末が実現してもよい。また、監視センタサーバ装置が実現する機能を、複数の情報処理装置が分担して実現してもよい。例えば、第1装置が監視員端末情報取得部201から優先度判定部203までの機能を実現し、第2装置が処理決定部204から発生場所特定部209までの機能を実現するという具合である。いずれの場合も、監視システムが備える装置全体で、上述した機能を実現していればよい。
[2-8] Devices for Realizing Each Function The devices for realizing the functions shown in FIG. 4 and the like are not limited to the above-mentioned devices. For example, the monitoring center server device may be provided with an input device and an output device, and each part included in the operator terminal 30 may be realized. On the contrary, the operator terminal may realize each part included in the monitoring center server device 20. Further, the functions realized by the monitoring center server device may be shared and realized by a plurality of information processing devices. For example, the first device realizes the functions from the observer terminal information acquisition unit 201 to the priority determination unit 203, and the second device realizes the functions from the processing determination unit 204 to the occurrence location identification unit 209. .. In either case, it is sufficient that the above-mentioned functions are realized in the entire device provided in the monitoring system.

[2−9]指示の自動化
実施例では、オペレータ端末30を使用するオペレータが監視員に対して指示を行ったが、将来は、この指示を含むオペレータの作業が自動化されてもよい。例えば、AI(Artificial Intelligence、人工知能)を活用して、監視員端末10からの投稿情報が示す事案の情報取得位置に最も近い監視員を選定して、選定した監視員に必要な情報(事案の発生場所を示す情報等)を伝達する。このように、一定のルールに基づく処理で実現可能な作業については、自動化されてもよい。
[2-9] Automation of Instruction In the embodiment, the operator using the operator terminal 30 gives an instruction to the observer, but in the future, the operator's work including this instruction may be automated. For example, using AI (Artificial Intelligence), select the observer closest to the information acquisition position of the case indicated by the information posted from the observer terminal 10, and the information (case) required for the selected observer. Information indicating the place of occurrence of In this way, the work that can be realized by the processing based on a certain rule may be automated.

[2−10]発明のカテゴリ
本発明は、監視員端末10、監視センタサーバ装置20、オペレータ端末30及び固定カメラ40という各装置の他、それらの装置を備える監視システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられる。また、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-10] Category of Invention The present invention can be regarded as a monitoring system including each device such as a supervisor terminal 10, a monitoring center server device 20, an operator terminal 30, and a fixed camera 40. The present invention can also be regarded as an information processing method for realizing the processing performed by each device. It can also be regarded as a program for operating the computer that controls each device. This program may be provided in the form of a recording medium such as an optical disk that stores it, or may be provided in the form of being downloaded to a computer via a network such as the Internet and installed and made available. May be done.

1…監視システム、10…監視員端末、20…監視センタサーバ装置、30…オペレータ端末、40…固定カメラ、101…測位部、102…位置情報送信部、103…撮影部、104…映像送信部、105…撮影動作制御部、201…監視員端末情報取得部、202…固定カメラ情報取得部、203…優先度判定部、204…処理決定部、205…撮影指示部、206…画像処理動作制御部、207…画像処理部、208…報知部、209…発生場所特定部、301…報知情報表示部、401…撮影部、402…映像送信部、403…撮影動作制御部。 1 ... Surveillance system, 10 ... Observer terminal, 20 ... Monitoring center server device, 30 ... Operator terminal, 40 ... Fixed camera, 101 ... Positioning unit, 102 ... Position information transmission unit, 103 ... Imaging unit, 104 ... Video transmission unit , 105 ... Shooting operation control unit, 201 ... Observer terminal information acquisition unit, 202 ... Fixed camera information acquisition unit, 203 ... Priority determination unit, 204 ... Processing determination unit, 205 ... Shooting instruction unit, 206 ... Image processing operation control Unit, 207 ... Image processing unit, 208 ... Notification unit, 209 ... Occurrence location identification unit, 301 ... Notification information display unit, 401 ... Shooting unit, 402 ... Video transmission unit, 403 ... Shooting operation control unit.

Claims (7)

監視エリアの映像を撮影する各撮影装置の位置情報と、前記各撮影装置により撮影された映像とを取得する第1取得手段と、
前記監視エリアにいる監視者の位置情報を取得する第2取得手段と、
前記映像から異常事象の発生を検出する画像処理を行う画像処理手段と、
取得された前記各撮影装置の位置情報及び前記監視者の位置情報に基づいて、前記監視者との距離が所定範囲内である第1の位置関係を有する前記撮影装置の優先度を他の撮影装置の優先度に比べて低くなるように判定する判定手段と、
前記撮影装置について判定された前記優先度が高いほど前記画像処理において単位時間当たりに処理されるデータ量が多くなるよう決定する決定手段とを備える監視システム。
And positional information of each image capturing apparatus for capturing an image of the monitor area, a first acquiring means for acquiring the image captured by the respective imaging devices,
A second acquisition means for acquiring the position information of the observer in the monitoring area, and
An image processing means that performs image processing to detect the occurrence of an abnormal event from the video, and
Based on the acquired position information of each imaging device and the position information of the observer, the priority of the imaging device having the first positional relationship in which the distance to the observer is within a predetermined range is given to other imaging. Judgment means for determining to be lower than the priority of the device,
A monitoring system including a determination means for determining that the higher the priority determined for the photographing apparatus, the larger the amount of data processed per unit time in the image processing.
前記判定手段は、前記監視者と前記第1の位置関係にある第1撮影装置の優先度を、前記監視者と前記第1の位置関係にない場合に比べて低くする
請求項1に記載の監視システム。
The determination means according to claim 1, wherein the priority of surveillant the first imaging device in said first position related to lower than when not in the first positional relationship between the observer Monitoring system.
前記監視エリア内で発生した異常事象の発生場所を特定する特定手段を備え、
前記判定手段は、特定された前記発生場所と第2の位置関係にある第2撮影装置の優先度を、当該発生場所と第2の位置関係にない場合に比べて高くする
請求項2に記載の監視システム。
Provided with a specific means for identifying the location of an abnormal event that occurred in the monitoring area.
The second aspect of the present invention, wherein the determination means raises the priority of the second photographing apparatus having a second positional relationship with the specified occurrence location as compared with the case where the second imaging device does not have a second positional relationship with the occurrence location. Monitoring system.
前記判定手段は、前記第2撮影装置が前記監視者と前記第1の位置関係にある場合、当該第2撮影装置の優先度を、前記監視者と前記第1の位置関係にない場合に比べて低くしない
請求項3に記載の監視システム。
When the second photographing device has the first positional relationship with the observer, the determination means sets the priority of the second photographing device as compared with the case where the second photographing device does not have the first positional relationship with the observer. The monitoring system according to claim 3, which is not lowered.
前記判定手段は、前記第2撮影装置の優先度を、他の撮影装置に比べて低くしない
請求項3又は4に記載の監視システム。
The monitoring system according to claim 3 or 4, wherein the determination means does not lower the priority of the second photographing device as compared with other photographing devices.
前記判定手段は、前記第1撮影装置の優先度を、前記監視者と前記第1の位置関係にない他の撮影装置に比べて低くする
請求項2から5のいずれか1項に記載の監視システム。
The monitoring according to any one of claims 2 to 5, wherein the determination means lowers the priority of the first photographing device as compared with other photographing devices having no positional relationship between the observer and the first photographing device. system.
前記判定手段は、前記第1の位置関係にある前記監視者の人数が多いほど前記第1撮影装置の優先度を低くする
請求項2から6のいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 2 to 6, wherein the determination means lowers the priority of the first photographing apparatus as the number of the observers in the first positional relationship increases.
JP2017065009A 2017-03-29 2017-03-29 Monitoring system Active JP6941458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017065009A JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017065009A JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Publications (2)

Publication Number Publication Date
JP2018170574A JP2018170574A (en) 2018-11-01
JP6941458B2 true JP6941458B2 (en) 2021-09-29

Family

ID=64020541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017065009A Active JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Country Status (1)

Country Link
JP (1) JP6941458B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387981B2 (en) * 2018-11-15 2023-11-29 日本電気株式会社 Image processing device, image processing method, program
JP7211353B2 (en) * 2019-12-23 2023-01-24 横河電機株式会社 Apparatus, system, method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929016B2 (en) * 2005-06-07 2011-04-19 Panasonic Corporation Monitoring system, monitoring method and camera terminal
JP4813205B2 (en) * 2006-02-20 2011-11-09 三菱電機株式会社 Video surveillance system and video concentrator
JP5816949B2 (en) * 2010-07-28 2015-11-18 株式会社北電子 Amusement park monitoring system
JP2017017488A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Monitoring system, imaging control method, and program
JP6286394B2 (en) * 2015-07-24 2018-02-28 セコム株式会社 Image surveillance system

Also Published As

Publication number Publication date
JP2018170574A (en) 2018-11-01

Similar Documents

Publication Publication Date Title
JP7444228B2 (en) program
JP4617269B2 (en) Monitoring system
US9607501B2 (en) Systems and methods for providing emergency resources
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
JP5790761B2 (en) Distributed image processing system
JP2008017093A (en) Monitoring system, monitoring device, and monitoring method
JP6914007B2 (en) Information processing device and information processing method
JP2018032950A (en) Information processing unit and information processing method, and computer program
JP2018181159A (en) Security system, crime prevention method, and robot
JP6244120B2 (en) Video display system and video display program
WO2020065852A1 (en) Authentication system, authentication method, and storage medium
JP6941458B2 (en) Monitoring system
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
JP6941457B2 (en) Monitoring system
JP6720010B2 (en) Information processing apparatus, information processing method, and program
KR101842564B1 (en) Focus image surveillant method for multi images, Focus image managing server for the same, Focus image surveillant system for the same, Computer program for the same and Recording medium storing computer program for the same
JP4985742B2 (en) Imaging system, method and program
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP6842968B2 (en) Monitoring system
JP2019009562A (en) Monitoring image display system, monitoring image display device, monitoring information management server, and monitoring image display method
KR101332820B1 (en) System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof
JP6807247B2 (en) Monitoring system and monitoring method
JP6877176B2 (en) Monitoring system
WO2023162016A1 (en) Monitoring system, monitoring device, monitoring method, and recording medium
JP7256082B2 (en) Surveillance Systems, Programs and Listing Methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6941458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150