JP2018170573A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2018170573A
JP2018170573A JP2017065008A JP2017065008A JP2018170573A JP 2018170573 A JP2018170573 A JP 2018170573A JP 2017065008 A JP2017065008 A JP 2017065008A JP 2017065008 A JP2017065008 A JP 2017065008A JP 2018170573 A JP2018170573 A JP 2018170573A
Authority
JP
Japan
Prior art keywords
monitoring
priority
video
unit
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017065008A
Other languages
Japanese (ja)
Other versions
JP6941457B2 (en
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
高橋 哲也
Tetsuya Takahashi
哲也 高橋
拓朗 田中
Takuro Tanaka
拓朗 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017065008A priority Critical patent/JP6941457B2/en
Publication of JP2018170573A publication Critical patent/JP2018170573A/en
Application granted granted Critical
Publication of JP6941457B2 publication Critical patent/JP6941457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly grasp an abnormal event occurring in the vicinity of an object to be predominantly monitored even when the object dynamically changes.SOLUTION: In the present example, a monitoring object position specification part 204 specifies companion information acquired by a companion information acquisition part 203, that is, a position measured by a companion terminal 50 carried by a companion as a position in a monitoring area for an object to be predominantly monitored. A priority determination part 205 determines the priorities of a plurality of photographing devices (observer terminals 10 and fixed cameras 40) on the basis of the position of the object to be predominantly monitored specified by the monitoring object position specification part 204 and position information acquired by an observer terminal information acquisition part 201 and a fixed camera information acquisition part 202. A processing determination part 206 determines processing on a video obtained by photographing the monitoring area according to the priority determined for the photographing device that films the video.SELECTED DRAWING: Figure 4

Description

本発明は、監視を支援する技術に関する。   The present invention relates to a technique for supporting monitoring.

監視を支援する技術がある。例えば特許文献1には、映像信号の範囲に異常の発生を知らせる信号を検知したカメラ装置の映像信号を他のカメラ装置に優先して処理する技術が開示されている。   There are technologies that support monitoring. For example, Patent Document 1 discloses a technique for preferentially processing a video signal of a camera device that detects a signal notifying the occurrence of an abnormality in the range of the video signal over other camera devices.

特開平11−331818号公報JP-A-11-331818

複数の監視カメラが撮影した映像を用いて監視エリアを監視する場合、それらの映像についての通信等の処理の負荷が過大になると、映像の表示等に支障をきたし、異常事象の発生に気付くのが遅れるおそれが生じる。また、監視エリアでは、重点的に監視すべき対象が存在する場合があり、イベントでは、その対象(例えばマラソンにおける先頭集団)が動的に変化する場合がある。その場合、特に、その対象の付近で発生した異常事象に対する対応の遅れを避けることが求められる。
そこで、本発明は、重点的に監視すべき対象が動的に変化してもその対象の付近で発生した異常事象を迅速に把握することを目的とする。
When monitoring a surveillance area using images taken by multiple surveillance cameras, if the processing load such as communication for those images becomes excessive, the display of the images will be hindered and abnormal events will be noticed. May be delayed. In addition, there may be a target to be monitored in the monitoring area, and in the event, the target (for example, the first group in a marathon) may change dynamically. In that case, in particular, it is required to avoid a delay in response to an abnormal event occurring in the vicinity of the target.
Therefore, an object of the present invention is to quickly grasp an abnormal event that occurs in the vicinity of a target even if the target to be monitored is dynamically changed.

上記目的を達成するために、本発明は、監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を判定する判定手段と、前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度に応じて決定する決定手段とを備える監視システムを提供する。   In order to achieve the above object, the present invention provides an acquisition means for acquiring position information of a plurality of imaging devices that shoot images of a monitoring area, and an important monitoring target in the monitoring area that changes with the progress of an event. Specifying means for specifying a position; determination means for determining the priority of each of the plurality of imaging devices based on the specified position of the monitoring target and the acquired positional information of the plurality of imaging devices; and the video A monitoring system is provided that includes a determination unit that determines the processing relating to the priority determined for the imaging device that captures the video.

上記の監視システムにおいて、前記映像に関する処理は、前記映像の撮影に関する撮影関連処理であり、前記決定手段は、前記撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を前記優先度に応じて決定してもよい。
上記の監視システムにおいて、前記映像に関する処理は、当該映像に対する画像処理であり、前記決定手段は、前記優先度に応じて前記画像処理を決定してもよい。
In the above monitoring system, the process related to the video is a shooting related process related to the shooting of the video, and the determining means transmits a transmission data amount per unit time when the video obtained by the shooting related process is transmitted May be determined according to the priority.
In the above monitoring system, the processing relating to the video may be image processing on the video, and the determining unit may determine the image processing according to the priority.

上記の監視システムにおいて、前記監視対象は人であり、前記特定手段は、前記監視対象又は当該監視対象の同行者が所持する位置情報端末に基づき前記監視対象の位置を特定してもよい。
上記の監視システムにおいて、前記監視対象は人であり、前記特定手段は、前記監視対象の移動に応じて移動可能な移動物の有する測位手段が測定する位置に基づき前記監視対象の位置を特定してもよい。
In the monitoring system, the monitoring target may be a person, and the specifying unit may specify a position of the monitoring target based on a position information terminal possessed by the monitoring target or a companion of the monitoring target.
In the above monitoring system, the monitoring target is a person, and the specifying unit specifies the position of the monitoring target based on a position measured by a positioning unit included in a moving object that can move according to the movement of the monitoring target. May be.

上記の監視システムにおいて、前記特定手段は、リアルタイム配信サービスにより配信された前記イベントに関する情報に基づいて前記監視対象の位置を特定してもよい。
上記の監視システムにおいて、前記イベントの進行状況を示す状況情報を取得する状況取得手段を備え、前記特定手段は、取得された前記状況情報が示す進行状況に基づき前記監視対象の位置を特定してもよい。
In the above monitoring system, the specifying unit may specify the position of the monitoring target based on information on the event distributed by a real-time distribution service.
The monitoring system includes status acquisition means for acquiring status information indicating the progress status of the event, and the specifying means specifies the position of the monitoring target based on the progress status indicated by the acquired status information. Also good.

上記の監視システムにおいて、特定された前記監視対象の位置の近辺の混雑度を判定する混雑判定手段を備え、前記判定手段は、前記監視対象の位置及び前記複数の撮影装置の位置情報に加え、判定された前記混雑度に基づいて前記複数の撮影装置の優先度を判定してもよい。   The monitoring system includes a congestion determination unit that determines a degree of congestion in the vicinity of the specified position of the monitoring target, and the determination unit includes the position of the monitoring target and the position information of the plurality of imaging devices, The priority of the plurality of imaging devices may be determined based on the determined degree of congestion.

本発明によれば、重点的に監視すべき対象が動的に変化してもその対象の付近で発生した異常事象を迅速に把握することができる。   According to the present invention, it is possible to quickly grasp an abnormal event that has occurred in the vicinity of a target even if the target to be monitored mainly changes dynamically.

実施例に係る監視システムの全体構成を表す図The figure showing the whole structure of the monitoring system which concerns on an Example 監視員に装着された監視員端末を表す図A figure showing the monitor terminal attached to the monitor 監視員端末のハードウェア構成を表す図A diagram showing the hardware configuration of an observer terminal 監視システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring system 優先度テーブルの一例を表す図The figure showing an example of a priority table 撮影用パラメータテーブルの一例を表す図The figure showing an example of the parameter table for photography 画像処理用パラメータテーブルの一例を表す図The figure showing an example of the parameter table for image processing 優先度処理における各装置の動作手順の一例を表す図The figure showing an example of the operation procedure of each apparatus in priority processing 変形例の監視センタサーバ装置が実現する機能構成を表す図The figure showing the functional structure which the monitoring center server apparatus of a modification implement | achieves 変形例の監視センタサーバ装置が実現する機能構成を表す図The figure showing the functional structure which the monitoring center server apparatus of a modification implement | achieves 変形例の撮影用パラメータテーブルの一例を表す図The figure showing an example of the parameter table for photography of a modification

[1]実施例
図1は実施例に係る監視システム1の全体構成を表す。監視システム1は、イベントにおける監視を支援するシステムである。イベントとは、スポーツの大会や試合、音楽の演奏会やライブ、祭り、花火、パレードなど、大勢の人が集まる催し物のことである。
[1] Embodiment FIG. 1 shows an overall configuration of a monitoring system 1 according to an embodiment. The monitoring system 1 is a system that supports monitoring in an event. An event is an event where a large number of people gather, such as sports competitions and games, music concerts and live performances, festivals, fireworks, and parades.

イベントにおいては、その開催場所に集まる人の安全が確保されるように監視エリアが定められる。例えば、マラソンやパレード、祭りなどでは、イベント自体は道路をコースとして行われるが、観客が集まるその周辺の沿道も含めて監視エリアとして定められる。また、コンサート会場、スタジアム及び花火等では観客が着席する会場の他に、最寄りの駅や駐車場から会場に着くまでのルートも監視エリアとして定められる。   In the event, a monitoring area is defined so as to ensure the safety of people gathering at the venue. For example, in a marathon, parade, festival, etc., the event itself is performed on a road course, but it is defined as a monitoring area including the surrounding roads where spectators gather. In addition to venues where spectators are seated at concert venues, stadiums, fireworks, etc., the route from the nearest station or parking lot to the venue is also determined as a monitoring area.

監視エリアには監視員が配置されて現場での監視を行う。また、監視員を支援するためのオペレータが監視センタに常駐し、監視員と連絡を取りながら監視エリア内の状況について情報を提供したり監視すべき場所を指示したりする。監視システム1は、主としてこれら監視員及びオペレータによって利用される。本実施例では、公道を利用して行われるマラソンというイベントにおける監視を例に挙げて説明する。   A monitoring person is assigned to the monitoring area to perform on-site monitoring. In addition, an operator for supporting the monitor is resident in the monitoring center, and provides information about the situation in the monitoring area and instructs a place to be monitored while contacting the monitor. The monitoring system 1 is mainly used by these monitoring personnel and operators. In the present embodiment, a description will be given by taking as an example monitoring in an event called a marathon performed using public roads.

監視システム1は、ネットワーク2と、イントラネット3と、複数の監視員端末10と、監視センタサーバ装置20と、オペレータ端末30と、複数の固定カメラ40と、同行者端末50とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。ネットワーク2は、移動体通信を行う基地局及び無線LAN(Local Area Network)通信を行うアクセスポイント等の無線通信装置を備える。ネットワーク2には、監視員端末10、固定カメラ40及び同行者端末50がこれらの無線通信装置と無線通信を行うことにより接続される。   The monitoring system 1 includes a network 2, an intranet 3, a plurality of monitor terminals 10, a monitoring center server device 20, an operator terminal 30, a plurality of fixed cameras 40, and a companion terminal 50. The network 2 is a communication system including a mobile communication network and the Internet, and mediates exchange of data between devices connected to the own system. The network 2 includes a base station that performs mobile communication and a wireless communication device such as an access point that performs wireless local area network (LAN) communication. The monitor terminal 10, the fixed camera 40, and the accompanying terminal 50 are connected to the network 2 by performing wireless communication with these wireless communication devices.

イントラネット3は、例えばLAN及びWAN(Wide Area Network)を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。イントラネット3は、ネットワーク2に接続されている。また、イントラネット3には、監視センタサーバ装置20及びオペレータ端末30が接続されている。なお、イントラネット3との接続は有線通信及び無線通信のどちらでもよい。   The intranet 3 is a communication system including, for example, a LAN and a WAN (Wide Area Network), and mediates data exchange between devices connected to the own system. The intranet 3 is connected to the network 2. A monitoring center server device 20 and an operator terminal 30 are connected to the intranet 3. The connection with the intranet 3 may be either wired communication or wireless communication.

固定カメラ40は、監視エリアの現場に設置されて周囲の映像、すなわち監視エリアの映像を撮影する装置であり、本発明の「撮影装置」の一例である。本発明でいう「映像」には、静止画像及び動画像のどちらも含まれ得るが、以下では動画像である場合を説明する。固定カメラ40は、撮影した映像を監視センタサーバ装置20に送信する。なお、映像を送信するとは、映像を示すデータを送信することを意味する。以下でも、各種の情報に対して送信等の処理を行うことは、それらの情報を示すデータに対して処理を行うことを意味する。   The fixed camera 40 is a device that is installed at the site of the monitoring area and captures surrounding images, that is, images of the monitoring area, and is an example of the “imaging device” of the present invention. The “video” referred to in the present invention can include both still images and moving images. Hereinafter, the case of moving images will be described. The fixed camera 40 transmits the captured video to the monitoring center server device 20. Note that transmitting video means transmitting data indicating the video. In the following, performing processing such as transmission on various types of information means performing processing on data indicating the information.

固定カメラ40は、映像の撮影に関連する撮影関連処理において、解像度(画素数)、フレームレート、画像伝送レート(伝送速度)、圧縮率、圧縮方式等の設定事項を変更できる機能を有している。設定事項とは、コンピュータが処理(この例では撮影関連処理)を実行する際の動作の詳細な態様(どのようにその処理を行うか)を規定するために定められる情報のことであり、パラメータとも呼ばれる。   The fixed camera 40 has a function capable of changing setting items such as resolution (number of pixels), frame rate, image transmission rate (transmission speed), compression rate, compression method, etc. in shooting-related processing related to video shooting. Yes. The setting items are information that is defined in order to define the detailed mode of operation (how to perform the process) when the computer executes the process (in this example, the shooting-related process). Also called.

以下では撮影関連処理で用いられる前述した各設定事項のことを「撮影用パラメータ」という。固定カメラ40は、定められた撮影用パラメータに基づいて撮影関連処理を行う。例えば解像度(画素数)が640×480=約30.7万画素と定められていれば、固定カメラ40は、画素数が640×480の映像を撮影する。   Hereinafter, each of the setting items used in the shooting-related processing is referred to as “shooting parameter”. The fixed camera 40 performs shooting-related processing based on the set shooting parameters. For example, if the resolution (number of pixels) is determined to be 640 × 480 = about 307,000 pixels, the fixed camera 40 captures an image with the number of pixels of 640 × 480.

固定カメラ40は、例えば、撮影開始時は予め定められた初期の撮影用パラメータ又は前回の撮影終了時の撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、外部装置(本実施例では監視センタサーバ装置20)から使用する撮影用パラメータを指示されると、指示された撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、パン・チルト・ズーム機能を有し、オペレータ端末30や監視員端末10からの遠隔操作により制御可能としてもよい。   For example, the fixed camera 40 performs a shooting-related process at the start of shooting based on a predetermined initial shooting parameter or a shooting parameter at the end of the previous shooting. In addition, when the fixed camera 40 is instructed by the external device (in this embodiment, the monitoring center server device 20) the shooting parameter to be used, the fixed camera 40 performs a shooting-related process based on the instructed shooting parameter. The fixed camera 40 may have a pan / tilt / zoom function and may be controlled by remote operation from the operator terminal 30 or the monitor terminal 10.

固定カメラ40が送信した映像は、監視センタの画面に表示され、オペレータはその画面を見ながら監視エリアの状況を確認する。映像が高画質であるほど詳細な状況まで確認することができるが、高画質な映像はデータ量も多いので、固定カメラ40が行う無線通信に遅延が生じやすくなる。そこで、監視システム1においては、全ての映像の画質を高くするのではなく、監視エリアにおいて重点的に監視すべき対象を映す映像の画質を、他の映像よりも高くする。   The video transmitted by the fixed camera 40 is displayed on the screen of the monitoring center, and the operator confirms the status of the monitoring area while viewing the screen. The more detailed the video, the more detailed the situation can be confirmed. However, since the high-quality video has a large amount of data, the wireless communication performed by the fixed camera 40 is likely to be delayed. In view of this, in the monitoring system 1, the image quality of all the videos is not increased, but the image quality of the video that shows the target to be monitored in the monitoring area is higher than that of the other videos.

そうすることで、重要な映像である重点的な監視対象の映像又はその周辺の映像は高画質で表示されるようにしつつ、無線通信の遅延が生じにくいようにする。本実施例では、マラソンの先頭集団のランナー達が重点的な監視対象として定められている。そこで、それらのランナー達に近い固定カメラ40の画質を、それよりも遠い固定カメラ40の画質よりも高くするための撮影用パラメータが用いられる。この撮影用パラメータは、後述する監視センタサーバ装置20によって決定される。   By doing so, it is possible to prevent the delay of wireless communication from occurring, while displaying the important monitoring target video or the surrounding video with high image quality. In this embodiment, the runners of the first group of marathon are defined as priority monitoring targets. Therefore, shooting parameters are used to make the image quality of the fixed camera 40 close to those runners higher than the image quality of the fixed camera 40 farther than that. This imaging parameter is determined by the monitoring center server device 20 described later.

監視員端末10は、監視エリアの現場に配置される監視員が所持して持ち運ぶ端末である。監視員端末10は、例えばスマートフォンであるが、本システム専用に作られた端末であってもよい。
図2は監視員に装着された監視員端末10を表す。図2では、監視員A1が端末ケース5を身体に固定している。端末ケース5は、監視員端末10を格納する入れ物であり、バンドにより監視員の身体(詳細には胸部)に固定されている。
The supervisor terminal 10 is a terminal that is carried and carried by a supervisor arranged at the site of the surveillance area. The supervisor terminal 10 is, for example, a smartphone, but may be a terminal made exclusively for this system.
FIG. 2 shows the monitor terminal 10 attached to the monitor. In FIG. 2, the supervisor A1 fixes the terminal case 5 to the body. The terminal case 5 is a container for storing the monitor terminal 10, and is fixed to the body (in detail, the chest) of the monitor by a band.

監視員端末10は、周囲の映像、すなわち監視エリアの映像を撮影する撮影手段を備えている。監視員端末10は本発明の「撮影装置」の一例でもある。端末ケース5は、自ケースに監視員端末10が格納された場合に撮影手段のレンズの位置する部分が透明になっている(孔が空いていてもよい)。監視員の胸部に装着された監視員端末10は、監視員の前方の映像を撮影する。   The supervisor terminal 10 is provided with photographing means for photographing the surrounding video, that is, the video of the monitoring area. The supervisor terminal 10 is also an example of the “imaging device” of the present invention. In the terminal case 5, when the supervisor terminal 10 is stored in the own case, a portion where the lens of the photographing unit is located is transparent (a hole may be formed). The monitor terminal 10 attached to the chest of the monitor takes a video in front of the monitor.

監視員端末10の撮影手段は、上述した撮影用パラメータを変更できる機能を有する。この撮影用パラメータも、固定カメラ40と同様に、監視センタサーバ装置20によって決定される。また、監視員端末10は、GPS(Global Positioning System)等の自装置の位置の測定手段も備えている。監視員端末10は、撮影手段が撮影した映像と、測位手段による位置の測定結果とを監視センタサーバ装置20に送信する。   The photographing means of the monitor terminal 10 has a function capable of changing the above-described photographing parameters. The photographing parameters are also determined by the monitoring center server device 20 as with the fixed camera 40. The supervisor terminal 10 is also provided with a measuring means for measuring the position of the own device such as a GPS (Global Positioning System). The supervisor terminal 10 transmits the video imaged by the imaging means and the position measurement result by the positioning means to the monitoring center server device 20.

同行者端末50は、前述した重点的な監視対象の同行者が所持して持ち運ぶ端末である。本実施例における同行者は、マラソンの先頭集団についていきながら監視を行う監視員である。監視員は自分の足で走ってもよいが、相手が先頭集団だとついていくのが難しいので、例えば自転車又はオートバイ等に乗ってついていくものとする。同行者端末50は、監視員端末10と同様に、撮影手段及び測位手段を備えており、管理エリアの映像の撮影及び自装置の位置の測定を行う。同行者端末50は自装置の位置を示す位置情報を生成して無線通信により送信する端末であり、本発明の「位置情報端末」の一例である。   The companion terminal 50 is a terminal carried and carried by the above-mentioned companion who is an important monitoring target. The accompanying person in this embodiment is a monitor who monitors the head group of the marathon. The monitor may run on his / her feet, but it is difficult to follow if the opponent is the leading group, so for example, he will follow a bicycle or motorcycle. As with the supervisor terminal 10, the accompanying terminal 50 includes an imaging unit and a positioning unit, and takes a video of the management area and measures the position of the own device. The accompanying terminal 50 is a terminal that generates position information indicating the position of the own apparatus and transmits the position information by wireless communication, and is an example of the “position information terminal” in the present invention.

監視センタサーバ装置20は、監視エリアの監視状況を管理するための各種の処理を実行する情報処理装置である。監視センタサーバ装置20は、例えば、送信されてきた映像に対して画像処理を行い、監視エリアでの異常事象の発生を検出する。ここでいう異常事象とは、監視エリアにおいて発生する事象のうち、周囲の人の安全を脅かしたり迷惑になったりするなどの理由で、監視員が何らかの対応(関係者への連絡や事態を収束するための対処など)を行う対象となる事象のことであり、単に異常又は事案と呼ばれることもある。   The monitoring center server device 20 is an information processing device that executes various processes for managing the monitoring status of the monitoring area. For example, the monitoring center server device 20 performs image processing on the transmitted video and detects the occurrence of an abnormal event in the monitoring area. An abnormal event here refers to an event that occurs in the monitoring area, which threatens the safety of surrounding people or is annoyed by the monitoring personnel (for example, convergence of the communication with related parties and the situation) Event, etc.), and may simply be called an abnormality or a case.

具体的には、例えば、不審者の出現、不審物の発見、立ち入り禁止エリアへの立ち入り、道路への飛び出し、怪我人の発生、事故の発生及びケンカの発生等が異常事象に含まれる。監視センタサーバ装置20は、異常事象の発生を検出すると、その旨を示す報知情報をオペレータ端末30に送信することで、オペレータへの報知を行う。   Specifically, for example, the appearance of a suspicious person, the discovery of a suspicious object, the entry to a prohibited entry area, the jump to the road, the occurrence of an injured person, the occurrence of an accident, the occurrence of a fight, etc. are included in the abnormal events. When the monitoring center server device 20 detects the occurrence of an abnormal event, the monitoring center server device 20 notifies the operator by transmitting notification information indicating that fact to the operator terminal 30.

オペレータ端末30は、監視センタのオペレータによって使用される端末である。オペレータ端末30は、監視センタサーバ装置20から送信されてきた報知情報を例えば表示手段に表示することで、監視エリアでの異常事象の発生をオペレータに報知する。この報知によって異常事象の発生に気付いたオペレータは、異常事象の発生を監視の責任者に伝えたり、監視員と連絡を取って、発生した異常事象への対応を指示したりする。   The operator terminal 30 is a terminal used by the operator of the monitoring center. The operator terminal 30 notifies the operator of the occurrence of an abnormal event in the monitoring area by displaying notification information transmitted from the monitoring center server device 20 on, for example, a display unit. The operator who notices the occurrence of the abnormal event by this notification notifies the person in charge of the monitoring of the occurrence of the abnormal event, or contacts the monitor to instruct the response to the generated abnormal event.

監視センタサーバ装置20には、監視エリアを撮影する全ての固定カメラ40及び監視員端末10から映像が送信されてくるため、全ての映像に対して画像処理に用いるリソース(CPU(Central Processing Unit)及びメモリ等)を均等に割り当てると、1つの映像当たりのリソース量が少なくなる。その結果、仮に異常事象が発生してもそれを検出するまでに要する時間が長くなり、異常事象への対応が遅くなるおそれがある。   The monitoring center server device 20 receives images from all the fixed cameras 40 and the monitor terminal 10 that shoot the monitoring area. Therefore, a resource (CPU (Central Processing Unit)) used for image processing for all the images. And memory etc.) are equally allocated, the amount of resources per video is reduced. As a result, even if an abnormal event occurs, the time required to detect it becomes longer, and the response to the abnormal event may be delayed.

対応の遅れをなくすためには、全ての映像に十分な量のリソースを割り当てることが望ましいが、費用等の制限からそこまでのリソースを用意することは難しい。そこで、監視システム1においては、監視エリア内の重要な箇所を撮影した映像に他の映像よりもリソース量を多く割り当てて、重要な箇所における異常事象の発生をより早く検出できるようにする。そして、そのための画像処理に関する設定事項(パラメータ)が、監視センタサーバ装置20によって決定される。この設定事項のことを以下では「画像処理用パラメータ」という。   In order to eliminate the delay in the response, it is desirable to allocate a sufficient amount of resources to all the videos, but it is difficult to prepare the resources up to that because of cost limitations. In view of this, in the monitoring system 1, a larger amount of resources is assigned to a video obtained by capturing an important part in the monitoring area than other videos, so that the occurrence of an abnormal event at the important part can be detected earlier. Then, setting items (parameters) related to image processing for that purpose are determined by the monitoring center server device 20. This setting item is hereinafter referred to as “image processing parameter”.

図3は監視員端末10のハードウェア構成を表す。監視員端末10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、撮影装置17と、測位装置18とを備えるコンピュータである。プロセッサ11は、CPU等を備え、オペレーティングシステムを動作させてコンピュータ全体を制御する機能を有するデバイスである。プロセッサ11は、プログラム及びデータ等をストレージ13及び通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。   FIG. 3 shows the hardware configuration of the supervisor terminal 10. The supervisor terminal 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, an imaging device 17, and a positioning device 18. The processor 11 is a device that includes a CPU and the like and has a function of operating an operating system to control the entire computer. The processor 11 reads a program, data, and the like from the storage 13 and the communication device 14 to the memory 12, and executes various processes according to these.

メモリ12は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばROM(Read Only Memory)及びRAM(Random Access Memory)等である。ストレージ13は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばハードディスクドライブ及びフラッシュメモリ等である。通信装置14は、有線ネットワーク又は/及び無線ネットワークを介してコンピュータ間の通信を行う機能を有する通信デバイスである。監視員端末10においては、通信装置14が、例えば移動体通信又は無線LANの規格に準拠した無線通信を行う。   The memory 12 is a recording device having a function of storing data that can be read by the processor 11, and is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, for example. The storage 13 is a recording device having a function of storing data that can be read by the processor 11, and is, for example, a hard disk drive or a flash memory. The communication device 14 is a communication device having a function of performing communication between computers via a wired network and / or a wireless network. In the monitor terminal 10, the communication device 14 performs wireless communication based on, for example, mobile communication or wireless LAN standards.

入力装置15は、外部からの入力を受け付ける機能を有する入力デバイスである。監視員端末10においては、入力装置15が、例えばタッチセンサ、ボタン及びマイクロフォン等を備える。出力装置16は、外部への出力を実施する機能を有する出力デバイスである。監視員端末10においては、出力装置16が、ディスプレイを備え、入力装置15のタッチセンサ及び出力装置16のディスプレイが一体となってタッチスクリーンを構成する。   The input device 15 is an input device having a function of receiving input from the outside. In the monitor terminal 10, the input device 15 includes, for example, a touch sensor, a button, a microphone, and the like. The output device 16 is an output device having a function of performing output to the outside. In the supervisor terminal 10, the output device 16 includes a display, and the touch sensor of the input device 15 and the display of the output device 16 constitute a touch screen.

撮影装置17は、周囲の映像を撮影するデバイスである。撮影装置17は、上述した撮影用パラメータに基づいて映像を撮影し、撮影した映像をプロセッサ11に供給する。測位装置18は、例えば、GPS衛星からの信号を用いて自身の位置を測定し、測定した位置を示す位置情報(緯度及び経度を示す情報)をプロセッサ11に供給する。   The imaging device 17 is a device that captures surrounding video. The imaging device 17 captures a video based on the above-described shooting parameters, and supplies the captured video to the processor 11. For example, the positioning device 18 measures its own position using a signal from a GPS satellite, and supplies position information (information indicating latitude and longitude) indicating the measured position to the processor 11.

監視センタサーバ装置20は、プロセッサと、メモリと、ストレージと、通信装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。監視センタサーバ装置20においては、通信装置が、有線LANの規格に準拠した有線通信を行う(無線通信を行ってもよい)。   The monitoring center server device 20 is a computer including a processor, a memory, a storage, and a communication device. These are all devices having the same functions as the devices of the same name shown in FIG. In the monitoring center server device 20, the communication device performs wired communication conforming to the standard of wired LAN (wireless communication may be performed).

オペレータ端末30は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。オペレータ端末30においては、通信装置が、有線LANの規格に準拠した有線通信を行い(無線通信を行ってもよい)、また、入力装置が、キーボード、マウス及びマイクロフォン等を備える。   The operator terminal 30 is a computer that includes a processor, a memory, a storage, a communication device, an input device, and an output device. These are all devices having the same functions as the devices of the same name shown in FIG. In the operator terminal 30, the communication device performs wired communication based on the standard of the wired LAN (wireless communication may be performed), and the input device includes a keyboard, a mouse, a microphone, and the like.

固定カメラ40は、プロセッサと、メモリと、ストレージと、通信装置と、撮影装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。   The fixed camera 40 is a computer including a processor, a memory, a storage, a communication device, and a photographing device. These are all devices having the same functions as the devices of the same name shown in FIG.

同行者端末50は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置と、撮影装置と、測位装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。   The companion terminal 50 is a computer including a processor, a memory, a storage, a communication device, an input device, an output device, an imaging device, and a positioning device. These are all devices having the same functions as the devices of the same name shown in FIG.

監視システム1が備える各装置のプロセッサがプログラムを実行して各部を制御することで、以下に述べる機能が実現される。
図4は監視システム1が実現する機能構成を表す。なお、図4では、監視員端末10及び固定カメラ40がそれぞれ1つしか表されていないが、他の監視員端末10及び固定カメラ40も同じ機能構成を備えている。
The functions described below are realized by the processor of each device included in the monitoring system 1 executing a program to control each unit.
FIG. 4 shows a functional configuration realized by the monitoring system 1. In FIG. 4, only one observer terminal 10 and one fixed camera 40 are shown, but the other observer terminals 10 and fixed cameras 40 also have the same functional configuration.

監視員端末10は、測位部101と、位置情報送信部102と、撮影部103と、映像送信部104と、撮影動作制御部105とを備える。監視センタサーバ装置20は、監視員端末情報取得部201と、固定カメラ情報取得部202と、同行者情報取得部203と、監視対象位置特定部204と、優先度判定部205と、処理決定部206と、撮影指示部207と、画像処理動作制御部208と、画像処理部209と、報知部210とを備える。オペレータ端末30は、報知情報表示部301を備える。固定カメラ40は、撮影部401と、映像送信部402と、撮影動作制御部403とを備える。同行者端末50は、測位部501と、位置情報送信部502とを備える。   The monitor terminal 10 includes a positioning unit 101, a position information transmission unit 102, a photographing unit 103, a video transmission unit 104, and a photographing operation control unit 105. The monitoring center server device 20 includes a monitor terminal information acquisition unit 201, a fixed camera information acquisition unit 202, a companion information acquisition unit 203, a monitoring target position specifying unit 204, a priority determination unit 205, and a process determination unit. 206, an imaging instruction unit 207, an image processing operation control unit 208, an image processing unit 209, and a notification unit 210. The operator terminal 30 includes a notification information display unit 301. The fixed camera 40 includes an imaging unit 401, a video transmission unit 402, and an imaging operation control unit 403. The accompanying person terminal 50 includes a positioning unit 501 and a position information transmission unit 502.

監視員端末10の測位部101は、自装置の位置を繰り返し測定する。測位部101は、例えば、一定時間の間隔(1秒毎など)で自装置の位置を測定し、測定した位置を示す位置情報を位置情報送信部102に供給する。位置情報送信部102は、測位部101により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。監視員端末10は自装置を識別する情報として装置ID(Identification)を記憶している。位置情報送信部102は、位置情報が供給される度にその位置情報を装置IDと共に監視センタサーバ装置20に送信する。   The positioning unit 101 of the monitor terminal 10 repeatedly measures the position of the own device. For example, the positioning unit 101 measures the position of its own device at regular time intervals (such as every second) and supplies position information indicating the measured position to the position information transmission unit 102. The position information transmission unit 102 transmits position information indicating the position of the own device measured by the positioning unit 101 to the monitoring center server device 20. The monitor terminal 10 stores a device ID (Identification) as information for identifying the device itself. The position information transmission unit 102 transmits the position information together with the apparatus ID to the monitoring center server apparatus 20 every time the position information is supplied.

撮影部103は、自装置の周囲の映像を撮影する。撮影部103は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(解像度、フレームレート)に基づいて撮影を行う。撮影部103は、映像を撮影しながら、並行して、撮影済みの映像を映像送信部104に供給する。映像送信部104は、撮影部103により撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する。   The imaging unit 103 captures a video around the device. The photographing unit 103 is controlled by a photographing operation control unit 105 described later, and performs photographing based on predetermined photographing parameters (resolution, frame rate). The imaging unit 103 supplies the captured video to the video transmission unit 104 in parallel while capturing the video. The video transmission unit 104 transmits the video around the own device captured by the imaging unit 103 to the monitoring center server device 20.

映像送信部104は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(画像伝送レート)に基づいて映像を送信する。また、映像送信部104は、自装置の装置IDを含むメタデータを映像に付与して送信する。撮影部103及び映像送信部104は、ストリーミングの技術を用いて映像の撮影及び送信を並行して行う。撮影部103及び映像送信部104は、このようにして監視エリアの映像を撮影する撮影関連処理を行う。   The video transmission unit 104 is controlled by a shooting operation control unit 105 described later, and transmits a video based on a predetermined shooting parameter (image transmission rate). In addition, the video transmission unit 104 adds metadata including the device ID of the own device to the video and transmits the video. The imaging unit 103 and the video transmission unit 104 perform video imaging and transmission in parallel using streaming technology. The imaging unit 103 and the video transmission unit 104 perform imaging-related processing for imaging the video in the monitoring area in this way.

撮影動作制御部105は、撮影部103及び映像送信部104による撮影に関する動作を制御する。撮影動作制御部105は、例えば、予め定められた初期の撮影用パラメータ(解像度、フレームレート及び画像伝送レート等の初期値)を記憶しておき、その撮影用パラメータを用いて撮影関連処理を行うよう撮影部103及び映像送信部104を制御する。   The shooting operation control unit 105 controls operations related to shooting by the shooting unit 103 and the video transmission unit 104. The shooting operation control unit 105 stores, for example, predetermined initial shooting parameters (initial values such as resolution, frame rate, and image transmission rate), and performs shooting-related processing using the shooting parameters. The imaging unit 103 and the video transmission unit 104 are controlled.

固定カメラ40の撮影部401は、自カメラの周囲の映像を撮影する。映像送信部402は、撮影部401により撮影された自カメラの周囲の映像を監視センタサーバ装置20に送信する。撮影動作制御部403は、撮影部401及び映像送信部402による撮影に関する動作を制御する。撮影部401、映像送信部402、撮影動作制御部403は、監視員端末10の撮影部103、映像送信部104、撮影動作制御部105と同じ機能である。   The imaging unit 401 of the fixed camera 40 captures an image around the own camera. The video transmission unit 402 transmits the video around the own camera photographed by the photographing unit 401 to the monitoring center server device 20. The shooting operation control unit 403 controls operations related to shooting by the shooting unit 401 and the video transmission unit 402. The imaging unit 401, the video transmission unit 402, and the imaging operation control unit 403 have the same functions as the imaging unit 103, the video transmission unit 104, and the imaging operation control unit 105 of the supervisor terminal 10.

同行者端末50の測位部501は、自装置の位置を繰り返し測定する。位置情報送信部502は、測位部501により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。測位部501、位置情報送信部502は、監視員端末10の測位部101、位置情報送信部102と同じ機能である。   The positioning unit 501 of the accompanying person terminal 50 repeatedly measures the position of the own device. The position information transmission unit 502 transmits position information indicating the position of the own device measured by the positioning unit 501 to the monitoring center server device 20. The positioning unit 501 and the position information transmitting unit 502 have the same functions as the positioning unit 101 and the position information transmitting unit 102 of the monitor terminal 10.

監視センタサーバ装置20の監視員端末情報取得部201は、監視員端末10の位置情報送信部102から送信されてきた位置情報及び装置IDと、監視員端末10の映像送信部104から送信されてきた映像及び装置IDとを、この装置IDが示す監視員端末10に関する情報(監視員端末情報)として取得する。つまり、監視員端末情報取得部201は、監視エリアの映像を撮影する複数の撮影装置(監視員端末10)の位置情報を取得する手段であり、本発明の「取得手段」の一例である。監視員端末情報取得部201は、取得した監視員端末情報を優先度判定部205及び画像処理部209に供給する。   The supervisor terminal information acquisition unit 201 of the monitoring center server device 20 receives the position information and device ID transmitted from the positional information transmitter 102 of the supervisor terminal 10 and the video transmitter 104 of the supervisor terminal 10. The acquired video and device ID are acquired as information (monitorer terminal information) regarding the monitor terminal 10 indicated by the device ID. That is, the supervisor terminal information acquisition unit 201 is means for acquiring position information of a plurality of imaging devices (monitorer terminals 10) that captures video in the monitoring area, and is an example of the “acquisition means” in the present invention. The monitor terminal information acquisition unit 201 supplies the acquired monitor terminal information to the priority determination unit 205 and the image processing unit 209.

固定カメラ情報取得部202は、固定カメラ40の映像送信部402から送信されてきた映像及び装置IDを、この装置IDが示す固定カメラ40に関する情報(固定カメラ情報)として取得する。また、固定カメラ情報取得部202は、装置IDとその装置IDが示す固定カメラ40の位置情報とを対応付けたリストである位置情報リストを記憶している。これらの位置情報は、該当する固定カメラ40の設置時等に、設置位置の緯度経度情報等を測定して取得しておく。固定カメラ情報取得部202は、取得した装置IDに位置情報リストで対応付けられている位置情報を、固定カメラ情報として取得する。   The fixed camera information acquisition unit 202 acquires the video and device ID transmitted from the video transmission unit 402 of the fixed camera 40 as information (fixed camera information) related to the fixed camera 40 indicated by the device ID. Further, the fixed camera information acquisition unit 202 stores a position information list that is a list in which a device ID and position information of the fixed camera 40 indicated by the device ID are associated with each other. These pieces of position information are obtained by measuring the latitude and longitude information of the installation position when the corresponding fixed camera 40 is installed. The fixed camera information acquisition unit 202 acquires position information associated with the acquired device ID in the position information list as fixed camera information.

つまり、固定カメラ情報取得部202は、監視エリアの映像を撮影する複数の撮影装置(固定カメラ40)の位置情報を取得する手段であり、本発明の「取得手段」の一例である。なお、各固定カメラ40が、自装置の位置情報を記憶しておき、その位置情報を映像と共に送信して、固定カメラ情報取得部202がその映像及び位置情報を固定カメラ情報として取得してもよい。固定カメラ情報取得部202は、取得した固定カメラ情報を優先度判定部205及び画像処理部209に供給する。   That is, the fixed camera information acquisition unit 202 is a unit that acquires position information of a plurality of imaging devices (fixed cameras 40) that captures images in the monitoring area, and is an example of the “acquisition unit” of the present invention. Each fixed camera 40 stores the position information of its own device, transmits the position information together with the video, and the fixed camera information acquisition unit 202 acquires the video and the position information as the fixed camera information. Good. The fixed camera information acquisition unit 202 supplies the acquired fixed camera information to the priority determination unit 205 and the image processing unit 209.

同行者情報取得部203は、同行者端末50の位置情報送信部502から送信されてきた位置情報及び装置IDを、この装置IDが示す同行者端末50を持ち運ぶ同行者に関する情報(同行者情報)として取得する。同行者情報取得部203は、取得した同行者情報を監視対象位置特定部204に供給する。   The companion information acquisition unit 203 receives the position information and the device ID transmitted from the position information transmission unit 502 of the companion terminal 50, and information on the companion who carries the companion terminal 50 indicated by the device ID (accompanying person information). Get as. The accompanying person information acquisition unit 203 supplies the acquired accompanying person information to the monitoring target position specifying unit 204.

監視対象位置特定部204は、イベントの進行と共に変化する重点的な監視対象の監視エリア内の位置を特定する。監視対象位置特定部204は本発明の「特定手段」の一例である。監視対象位置特定部204は、本実施例では、同行者情報取得部203により取得された同行者情報、すなわち同行者が所持する同行者端末50が測定する位置に基づき重点的な監視対象の監視エリア内の位置を特定する。   The monitoring target position specifying unit 204 specifies the position within the monitoring area of the priority monitoring target that changes with the progress of the event. The monitoring target position specifying unit 204 is an example of the “specifying unit” in the present invention. In this embodiment, the monitoring target position specifying unit 204 monitors the monitoring target with priority based on the companion information acquired by the companion information acquisition unit 203, that is, the position measured by the companion terminal 50 possessed by the companion. Identify a location within the area.

同行者は重点的な監視対象である先頭集団のランナー達の近くを走っているので、同行者の位置情報を重点的な監視対象の位置情報とみなすことができる。或いは同行者の位置と重点的な監視対象の位置に所定の関係(例えば、同行者は重点的な監視対象から所定距離離れた場所にいる)がある場合は、同行者端末50の位置から所定の関係に基づいた位置を重点的な監視対象の位置とする。監視対象位置特定部204は、特定した重点的な監視対象の位置情報を優先度判定部205に供給する。   Since the accompanying person is running near the first group of runners who are the priority monitoring targets, the position information of the accompanying person can be regarded as the position information of the priority monitoring target. Alternatively, if there is a predetermined relationship between the position of the accompanying person and the position of the focused monitoring target (for example, the accompanying person is located at a predetermined distance from the focused monitoring target), the predetermined position is determined from the position of the accompanying terminal 50. The position based on the relationship is set as the position of the priority monitoring target. The monitoring target position specifying unit 204 supplies the specified priority monitoring target position information to the priority determination unit 205.

優先度判定部205は、監視対象位置特定部204により特定された重点的な監視対象の位置と、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された位置情報に基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する。優先度判定部205は本発明の「判定手段」の一例である。監視システム1においては、この優先度が高い撮影装置ほど、監視の観点で重要な映像を撮影しているとみなし、その映像から監視エリアの状況を把握しやすくしたり、異常事象の発生を早く見つけられるようにしたりする。   The priority determination unit 205 is based on the position of the priority monitoring target specified by the monitoring target position specifying unit 204 and the position information acquired by the monitor terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. The priority of each of the plurality of imaging devices (monitor terminal 10 and fixed camera 40) is determined. The priority determination unit 205 is an example of the “determination unit” in the present invention. In the monitoring system 1, it is considered that the higher the priority of the imaging device, the more important video is taken from the viewpoint of monitoring, and it is easier to grasp the situation of the monitoring area from the video, or the occurrence of the abnormal event is accelerated. To be found.

優先度判定部205は、例えば、同行者と各撮影装置間の距離と優先度とを対応付けた優先度テーブルを用いて優先度を判定する。
図5は優先度テーブルの一例を表す。この優先度テーブルでは、「Th1未満」、「Th1以上Th2未満」、「Th2以上」という距離に、「1」、「2」、「3」という優先度が対応付けられている。
The priority determination unit 205 determines the priority using, for example, a priority table in which the distance between the accompanying person and each photographing apparatus is associated with the priority.
FIG. 5 shows an example of a priority table. In this priority table, the priorities “1”, “2”, and “3” are associated with the distances “less than Th1,” “more than Th1 and less than Th2,” and “more than Th2”.

優先度判定部205は、各撮影装置について、それぞれの位置情報が示す位置と重点的な監視対象の位置との距離を算出し、算出した距離に優先度テーブルで対応付けられている優先度を、その撮影装置の優先度として判定する。優先度判定部205は、例えば一定時間毎(10秒毎など)に、全ての撮影装置についてこの判定を行う。優先度判定部205は、判定した優先度を、判定対象の撮影装置の装置IDに対応付けて処理決定部206に供給する。   The priority determination unit 205 calculates the distance between the position indicated by the position information and the position of the priority monitoring target for each photographing apparatus, and sets the priority associated with the calculated distance in the priority table. Then, it is determined as the priority of the photographing apparatus. The priority determination unit 205 performs this determination for all the imaging devices, for example, at regular time intervals (for example, every 10 seconds). The priority determination unit 205 supplies the determined priority to the process determination unit 206 in association with the device ID of the determination target imaging device.

処理決定部206は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する。処理決定部206は本発明の「決定手段」の一例である。映像に関する処理とは、本実施例では、上述した撮影関連処理と、異常事象を検出するための映像に対する画像処理である。処理決定部206による処理の決定とは、映像に関する処理をどのようにして行うかを決定するということである。   The process determining unit 206 determines the process related to the video for capturing the monitoring area according to the priority determined for the imaging device that captures the video. The process determination unit 206 is an example of the “determination unit” in the present invention. In the present embodiment, the video-related processing is the above-described shooting-related processing and image processing for video for detecting an abnormal event. The determination of the process by the process determining unit 206 is to determine how to perform the process related to the video.

処理決定部206は、撮影関連処理であれば、例えば高画質な処理を行うか、低画質な処理を行うかを決定する。また、処理決定部206は、画像処理であれば、例えばリソース(CPU及びメモリ等)を十分用いた処理を行うか、リソースを節約した処理を行うかを決定する。処理決定部206は、これらの決定を、より具体的には、上述した撮影用パラメータを決定し又は画像処理用パラメータを決定することで行う。   If it is a photographing related process, the process determining unit 206 determines, for example, whether to perform high-quality processing or low-quality processing. In the case of image processing, the process determination unit 206 determines whether to perform, for example, a process that sufficiently uses resources (such as a CPU and a memory) or a process that saves resources. More specifically, the process determining unit 206 performs these determinations by determining the above-described shooting parameters or determining the image processing parameters.

処理決定部206は、撮影関連処理については、優先度と撮影用パラメータとを対応付けた撮影用パラメータテーブルを用いて決定を行う。
図6は撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「2」、「3」という優先度に、「192万画素(1600×1200)」、「122.9万画素(1280×960)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。
The process determining unit 206 determines the shooting-related process using a shooting parameter table in which priority and shooting parameters are associated with each other.
FIG. 6 shows an example of the shooting parameter table. In this imaging parameter table, “1,900,000 pixels (1,600 × 1200)”, “1,229,000 pixels (1280 × 960)”, “30. A resolution (number of pixels) of “70,000 pixels (640 × 480)” is associated.

処理決定部206は、優先度判定部205から供給された優先度に撮影用パラメータテーブルで対応付けられている解像度(画素数)を、共に供給された装置IDが示す撮影装置が撮影関連処理で用いる撮影用パラメータとして決定する。処理決定部206は、決定した撮影用パラメータを決定対象の撮影装置の装置IDと共に撮影指示部207に供給する。   The process determination unit 206 is configured to perform the shooting-related process when the shooting apparatus indicated by the apparatus ID supplied together with the resolution (number of pixels) associated with the priority supplied from the priority determination unit 205 in the shooting parameter table. It is determined as a shooting parameter to be used. The process determination unit 206 supplies the determined shooting parameters to the shooting instruction unit 207 together with the device ID of the shooting device to be determined.

図6に表す撮影用パラメータテーブルは、優先度が高いほど解像度を高く(画素数を多く)している。他にも、例えば、優先度が高いほどフレームレートを高くしてもよいし、優先度が高いほど画像サイズを大きくしてもよいし、優先度が高いほど画像伝送レートを高く(伝送速度を速く)してもよい。また、優先度が高いほど圧縮率を低くし又は圧縮率の低い圧縮方式を選択してもよい。   In the shooting parameter table shown in FIG. 6, the higher the priority, the higher the resolution (the number of pixels). In addition, for example, the higher the priority, the higher the frame rate may be, the higher the priority, the larger the image size, and the higher the priority, the higher the image transmission rate (the transmission speed may be increased). (Fast). Alternatively, a compression method with a lower compression ratio or a lower compression ratio may be selected as the priority is higher.

いずれの場合も、処理決定部206は、撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を優先度に応じて決定し、詳細には、優先度が高いほどその単位時間当たりの送信データ量が多くなる撮影用パラメータ(解像度、フレームレート及び画像サイズ等)を決定する。これにより、撮影装置の優先度が高いほど、表示される際の映像の画質が高くなり、映像を拡大したときに細部を明瞭に表示したり、映像内の人や物の動きを滑らかにしたりすることができる。   In any case, the process determining unit 206 determines the amount of transmission data per unit time when the video obtained by the shooting-related process is transmitted according to the priority. Specifically, the higher the priority, the higher the priority. The shooting parameters (resolution, frame rate, image size, etc.) that increase the amount of transmission data per unit time are determined. As a result, the higher the priority of the shooting device, the higher the image quality of the displayed image, and when the image is enlarged, details are clearly displayed, and the movement of people and objects in the image is smoothed. can do.

また、処理決定部206は、画像処理については、優先度とリソース量とを対応付けた画像処理用パラメータテーブルを用いて決定を行う。
図7は画像処理用パラメータテーブルの一例を表す。この画像処理用パラメータテーブルでは、「1」、「2」、「3」という優先度に、「4コア」、「2コア」、「1コア」というリソース量(CPUのコア数)が対応付けられている。
In addition, the process determination unit 206 determines image processing using an image processing parameter table in which priority levels and resource amounts are associated with each other.
FIG. 7 shows an example of an image processing parameter table. In this parameter table for image processing, the resource amounts (the number of CPU cores) “4 cores”, “2 cores”, and “1 cores” are associated with the priorities “1”, “2”, and “3”. It has been.

処理決定部206は、優先度判定部205から供給された優先度に画像処理用パラメータテーブルで対応付けられているリソース量(CPUのコア数)を、共に供給された装置IDが示す撮影装置が画像処理で用いる画像処理用パラメータとして決定する。処理決定部206は、決定した画像処理用パラメータを決定対象の撮影装置の装置IDと共に画像処理動作制御部208に供給する。   The processing determining unit 206 is a camera that indicates the resource amount (the number of CPU cores) associated with the priority supplied from the priority determining unit 205 in the image processing parameter table by the device ID supplied together. It is determined as an image processing parameter used in image processing. The process determining unit 206 supplies the determined image processing parameters to the image processing operation control unit 208 together with the apparatus ID of the determination target imaging apparatus.

図7に表す画像処理用パラメータテーブルは、優先度が高いほどリソース量であるコア数を多くしているが、それ以外にも、例えば、優先度が高いほど使用可能なメモリの記憶領域を大きくしてもよい。また、異常事象の検出のための画像処理は繰り返し行われるが、優先度が高いほどその画像処理の間隔を短くしても(つまり画像処理の頻度を高くしても)よい。   In the image processing parameter table shown in FIG. 7, the higher the priority, the larger the number of cores that are the resource amount. For example, the higher the priority, the larger the storage area of the usable memory. May be. Further, the image processing for detecting the abnormal event is repeated, but the higher the priority, the shorter the interval of the image processing (that is, the higher the frequency of the image processing).

いずれの場合も、処理決定部206は、優先度に応じて画像処理を決定する、すなわち、画像処理をどのように行うかを決定する。詳細には、処理決定部206は、画像処理が行われる際に単位時間当たりに処理されるデータ量を優先度に応じて決定する。上記の各例においては、処理決定部206は、優先度が高いほどその単位時間当たりに処理されるデータ量が多くなる画像処理用パラメータ(リソース量、画像処理の間隔及び頻度等)を決定する。   In any case, the process determining unit 206 determines image processing according to the priority, that is, how to perform image processing. Specifically, the process determination unit 206 determines the amount of data processed per unit time when image processing is performed according to the priority. In each of the above examples, the processing determining unit 206 determines image processing parameters (resource amount, image processing interval and frequency, etc.) that increase the amount of data processed per unit time as the priority increases. .

これにより、撮影装置の優先度が高いほど、映像のデータ量が同じであれば画像処理に要する時間が短くなる。その結果、重点的な監視対象の位置に関係なく画像処理が行われる場合に比べて、優先度の高い撮影装置の映像、すなわち重点的な監視対象の付近を撮影した映像からの異常事象の発生の検出をより迅速に行うことができる。   Thus, the higher the priority of the photographing device, the shorter the time required for image processing if the video data amount is the same. As a result, the occurrence of abnormal events from high-priority imaging device video, that is, video taken in the vicinity of the priority monitoring target, compared to when image processing is performed regardless of the location of the priority monitoring target Can be detected more quickly.

撮影指示部207は、処理決定部206により決定された撮影関連処理の実行を撮影装置に指示する。撮影指示部207は、処理決定部206から供給された撮影用パラメータを用いることを指示する指示データを生成し、生成した指示データを共に供給された装置IDが示す撮影装置(監視員端末10又は固定カメラ40)に送信する。例えば監視員端末10であれば、撮影動作制御部105が、送信されてきた指示データが示す撮影用パラメータを用いるよう撮影部103及び映像送信部104を制御することで、撮影指示部207から指示された撮影関連処理を実行する。   The imaging instruction unit 207 instructs the imaging apparatus to execute the imaging related process determined by the process determination unit 206. The imaging instruction unit 207 generates instruction data instructing to use the imaging parameter supplied from the processing determination unit 206, and the imaging apparatus (the supervisor terminal 10 or the monitor device 10 indicated by the apparatus ID supplied together with the generated instruction data) To the fixed camera 40). For example, in the case of the monitor terminal 10, the imaging operation control unit 105 instructs the imaging instruction unit 207 to control the imaging unit 103 and the video transmission unit 104 to use the imaging parameter indicated by the transmitted instruction data. Executed shooting related processing.

画像処理動作制御部208は、処理決定部206により決定された画像処理を実行するよう画像処理部209の動作を制御する。画像処理動作制御部208は、処理決定部206から供給された画像処理用パラメータ及び装置IDを画像処理部209に供給し、その装置IDと共に供給された映像についての画像処理を、その画像処理用パラメータを用いて行うよう画像処理の動作を制御する。   The image processing operation control unit 208 controls the operation of the image processing unit 209 so as to execute the image processing determined by the processing determination unit 206. The image processing operation control unit 208 supplies the image processing parameters and the device ID supplied from the processing determination unit 206 to the image processing unit 209, and performs image processing on the video supplied together with the device ID for the image processing. The image processing operation is controlled so as to be performed using parameters.

画像処理部209は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行う。画像処理部209は、例えば、監視対象区域の画像から異常を検出する周知の技術等を応用して、撮影された監視エリアの映像を解析して異常事象の発生を検出する。   The image processing unit 209 performs image processing on the video of the imaging device (the monitor terminal 10 and the fixed camera 40) acquired by the monitor terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. For example, the image processing unit 209 applies a known technique for detecting an abnormality from the image of the monitoring target area and analyzes the captured image of the monitoring area to detect the occurrence of the abnormal event.

画像処理部209は、画像処理により異常事象の発生を検出すると、その旨を検出に用いた映像を撮影した撮影装置の装置IDと共に報知部210に通知する。報知部210は、この通知を受け取ると、例えば、異常事象が発生した旨と装置IDとを示す報知情報を生成してオペレータ端末30に送信する。オペレータ端末30の報知情報表示部301は、送信されてきた報知情報を表示する。オペレータは、こうして表示された報知情報を見て異常事象の発生に気付き、監視員と連絡を取って異常事象に対処する。   When the occurrence of an abnormal event is detected by image processing, the image processing unit 209 notifies the notification unit 210 together with the device ID of the imaging device that has captured the video used for the detection. When the notification unit 210 receives this notification, for example, the notification unit 210 generates notification information indicating that an abnormal event has occurred and the device ID, and transmits the notification information to the operator terminal 30. The notification information display unit 301 of the operator terminal 30 displays the transmitted notification information. The operator notices the occurrence of the abnormal event by looking at the notification information displayed in this manner, and contacts the monitor to deal with the abnormal event.

監視システム1が備える各装置は、上記構成に基づいて、監視エリアを撮影する映像に関する処理を、各撮影装置の優先度に基づいて行う優先度処理を行う。
図8は優先度処理における各装置の動作手順の一例を表す。この動作手順は、例えば、各装置の電源が投入されて監視エリアにおける監視が開始されることを契機に開始される。まず、同行者端末50(測位部501)が、自装置の位置を測定する(ステップS11)。
Based on the above configuration, each device included in the monitoring system 1 performs priority processing that performs processing related to video for capturing a monitoring area based on the priority of each imaging device.
FIG. 8 shows an example of the operation procedure of each device in the priority processing. This operation procedure is started when, for example, each device is powered on and monitoring in the monitoring area is started. First, the accompanying person terminal 50 (positioning unit 501) measures the position of its own device (step S11).

次に、同行者端末50(位置情報送信部502)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS12)。監視センタサーバ装置20(同行者情報取得部203)は、同行者端末50から送信されてきた位置情報を同行者情報として取得する(ステップS13)。次に、監視センタサーバ装置20(監視対象位置特定部204)は、取得された同行者情報に基づいて、イベントの進行と共に変化する重点的な監視対象の監視エリア内の位置を特定する(ステップS14)。   Next, the accompanying person terminal 50 (position information transmitting unit 502) transmits position information indicating the measured position of the own apparatus to the monitoring center server apparatus 20 (step S12). The monitoring center server device 20 (accompanying person information acquisition unit 203) acquires the position information transmitted from the accompanying person terminal 50 as accompanying person information (step S13). Next, the monitoring center server device 20 (monitoring target position specifying unit 204) specifies the position within the monitoring area of the priority monitoring target that changes with the progress of the event, based on the acquired companion information (step) S14).

監視員端末10(測位部101)は、自装置の位置を測定する(ステップS21)。次に、監視員端末10(位置情報送信部102)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS22)。また、監視員端末10(撮影部103)は、自装置の周囲の映像を撮影する(ステップS23)。次に、監視員端末10(映像送信部104)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS24)。監視センタサーバ装置20(監視員端末情報取得部201)は、監視員端末10から送信されてきた位置情報及び映像を監視員端末情報として取得する(ステップS25)。   The monitor terminal 10 (positioning unit 101) measures the position of the own device (step S21). Next, the monitor terminal 10 (position information transmission unit 102) transmits position information indicating the measured position of the own apparatus to the monitoring center server apparatus 20 (step S22). In addition, the supervisor terminal 10 (imaging unit 103) captures a video around the device (step S23). Next, the supervisor terminal 10 (video transmitting unit 104) transmits the captured video around the own device to the monitoring center server device 20 (step S24). The monitoring center server device 20 (monitorer terminal information acquisition unit 201) acquires the position information and video transmitted from the monitor terminal 10 as the monitor terminal information (step S25).

固定カメラ40(撮影部401)は、自装置の周囲の映像を撮影する(ステップS31)。次に、固定カメラ40(映像送信部402)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS32)。監視センタサーバ装置20(固定カメラ情報取得部202)は、固定カメラ40から送信されてきた映像と、その固定カメラ40の位置情報とを固定カメラ情報として取得する(ステップS33)。ステップS11〜S14と、S21〜S25と、S31〜S33の各動作群は、並行して繰り返し行われる。   The fixed camera 40 (shooting unit 401) shoots a video around the device (step S31). Next, the fixed camera 40 (video transmission unit 402) transmits the captured video around the device itself to the monitoring center server device 20 (step S32). The monitoring center server device 20 (fixed camera information acquisition unit 202) acquires the video transmitted from the fixed camera 40 and the position information of the fixed camera 40 as fixed camera information (step S33). The operation groups of steps S11 to S14, S21 to S25, and S31 to S33 are repeatedly performed in parallel.

監視センタサーバ装置20(優先度判定部205)は、特定された重点的な監視対象の位置と、取得された各撮影装置の位置情報に基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する(ステップS41)。次に、監視センタサーバ装置20(処理決定部206)は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する(ステップS42)。   The monitoring center server device 20 (priority determination unit 205) has a plurality of imaging devices (the monitor terminal 10 and the fixed terminal) based on the identified position of the priority monitoring target and the acquired location information of each imaging device. Each priority of the camera 40) is determined (step S41). Next, the monitoring center server device 20 (processing determination unit 206) determines processing related to the video for shooting the monitoring area according to the priority determined for the shooting device for shooting the video (step S42).

続いて、監視センタサーバ装置20(撮影指示部207)は、決定された撮影関連処理の実行を撮影装置に指示するための指示データを生成して(ステップS43)、その指示データを撮影装置(この例では監視員端末10)に送信する(ステップS44)。監視員端末10(撮影動作制御部105)は、受け取った指示データが示す指示のとおりに、自装置の撮影に関する動作を制御する(ステップS45)。また、監視センタサーバ装置20(画像処理動作制御部208)は、決定された画像処理を実行するように、自装置が行う画像処理の動作を制御する(ステップS46)。   Subsequently, the monitoring center server device 20 (imaging instruction unit 207) generates instruction data for instructing the imaging device to execute the determined imaging-related process (step S43), and the instruction data is transmitted to the imaging device ( In this example, it is transmitted to the supervisor terminal 10) (step S44). The monitor terminal 10 (imaging operation control unit 105) controls the operation related to the imaging of the own device in accordance with the instruction indicated by the received instruction data (step S45). Further, the monitoring center server device 20 (image processing operation control unit 208) controls the image processing operation performed by the own device so as to execute the determined image processing (step S46).

本実施例では、イベントの進行と共に変化する重点的な監視対象(上記の例ではマラソンの先頭集団)に近い撮影装置ほど高い優先度と判定され、優先度が高い撮影装置の映像ほど、画質を高くし、また、画像処理に用いるリソース量を多くしている。これにより、重点的な監視対象に近い監視エリアほど映像がクリアで且つ画像処理による異常事象の検出が早く行われることになる。その結果、マラソンのようなイベントにおいて重点的に監視すべき対象が動的に変化しても、その対象の位置に関係なく映像に関する処理を行う場合に比べて、その対象の付近で発生した異常事象を迅速に把握することができる。   In the present embodiment, a photographing device closer to a focused monitoring target (in the above example, the first group of marathons) that changes with the progress of the event is determined to have a higher priority. The resource amount used for image processing is increased. As a result, the closer the monitoring area is to the focused monitoring target, the clearer the video and the earlier the detection of abnormal events by image processing. As a result, even if the target to be monitored in an event such as a marathon changes dynamically, abnormalities that occur in the vicinity of the target compared to when processing related to video is performed regardless of the position of the target The event can be grasped quickly.

また、本実施例では、重点的な監視対象が人であり、その同行者が所持する位置情報端末(同行者端末50)を用いて重点的な監視対象の位置が特定されている。これにより、マラソンランナーのように携帯端末を所持することができない対象であっても、重点的な監視対象としてその位置を特定することができる。   In the present embodiment, the person to be monitored is a person, and the position of the person to be monitored is identified using the position information terminal (accompanying terminal 50) possessed by the accompanying person. Thereby, even if it is an object which cannot carry a portable terminal like a marathon runner, the position can be specified as an important monitoring object.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows. Moreover, you may implement an Example and each modification in combination as needed.

[2−1]画像処理用パラメータ
処理決定部206は、実施例とは異なる画像処理用パラメータを決定してもよい。例えば、処理決定部206は、複数の映像に対する画像処理が順番に行われる場合に、その順番を画像処理用パラメータとして、優先度に応じて決定する。処理決定部206は、例えば、優先度が高い撮影装置の映像ほど先に画像処理が行われるよう順番を決定する。
[2-1] Image Processing Parameter The processing determining unit 206 may determine an image processing parameter different from that in the embodiment. For example, when the image processing for a plurality of videos is sequentially performed, the processing determination unit 206 determines the order as an image processing parameter according to the priority. For example, the processing determination unit 206 determines the order in which the image processing of the imaging device with higher priority is performed earlier.

なお、画像処理の順番以外にも、処理決定部206は、映像に対する画像処理の終了時間が変化する画像処理用パラメータを優先度に応じて決定してもよい。いずれの場合も、撮影装置の優先度が高いほど、その映像に対する画像処理が早く終わるので、実施例と同様に、重点的な監視対象の付近を撮影した映像からの異常事象の発生の検出をより迅速に行うことができる。   In addition to the order of image processing, the process determining unit 206 may determine an image processing parameter that changes the end time of image processing for a video according to priority. In either case, the higher the priority of the imaging device, the faster the image processing for that video ends.Therefore, as in the embodiment, the detection of the occurrence of an abnormal event from the video that captured the vicinity of the focused monitoring target is detected. It can be done more quickly.

[2−2]重点的な監視対象
重点的な監視対象は実施例で述べたものに限らない。例えばイベントがマラソンであっても、先頭集団だけでなく途中の集団(人の密度が高い集団など)或いは注目度が高い特定のランナーを予め設定し、重点的な監視対象としてもよい。また、重点的な監視対象のランナーを間に挟む複数の同行者間を重点的な監視対象としてもよい。
[2-2] Focused monitoring target Focused monitoring target is not limited to that described in the embodiment. For example, even if the event is a marathon, not only the first group but also a group in the middle (such as a group with a high density of people) or a specific runner with a high degree of attention may be set in advance and set as an important monitoring target. Further, a plurality of accompanying persons with a runner as a priority monitoring target in between may be set as a priority monitoring target.

或いはイベントが国際会議や海外からの要人の来日であれば、各要人を重点的な監視対象としてもよい。また、重点的な監視対象は人に限らない。イベント全体を重点的な監視対象としてもよい。例えばイベント開催中の周辺の沿道を重点的な監視対象としてもよい。この場合、マラソンの進行状況に応じて先頭集団の接近前から所定数のランナーが通過するまでのように重点監視対象を動的に設定するようにしてもよい。   Alternatively, if the event is an international conference or a visitor from overseas, each visitor may be the target for monitoring. Moreover, the priority monitoring target is not limited to a person. The entire event may be an important monitoring target. For example, it is possible to focus on roadsides around the event. In this case, the priority monitoring target may be dynamically set so that a predetermined number of runners pass before the leading group approaches according to the marathon progress.

また、イベントがスタジアムで行われる試合やライブなどであれば、入場開始前は最寄りの駅から入場口までを重点的な監視対象とし、入場開始後は入場口から座席までの通路やトイレ等を重点的な監視対象とし、イベント開始後は座席の周辺を重点的な監視対象とする。このように、イベントの進行と共に人が多く集まる場所が変化する場合に、それらの場所を、イベントの進行と共に変化する重点的な監視対象としてもよい。   Also, if the event is a stadium game or live performance, prior to admission, the area from the nearest station to the entrance will be the focus of monitoring. The focus is to be monitored, and after the start of the event, the area around the seat is the focus to be monitored. As described above, when a place where many people gather changes with the progress of the event, those places may be set as focused monitoring targets that change with the progress of the event.

[2−3]同行者
重点的な監視対象に同行する同行者は実施例で述べた者(先頭集団についていく監視員)に限らない。例えば先頭集団を先導する白バイの隊員でもよいし、放送用の車両の乗員でもよい。また、イベントがパレードであれば、パレードの主役をガードするガードマンでもよいし、主役が要人である場合はSP(Security Police)であってもよい。要するに、重点的な監視対象である人に同行し且つ上述した位置情報端末(自装置の位置を示す位置情報を生成して無線通信により送信する端末)を所持することが可能な者であればよい。
[2-3] Accompanying person Accompanying the person to be focused on is not limited to the person described in the embodiment (the monitoring person who follows the first group). For example, it may be a member of a white bike leading the leading group, or an occupant of a broadcasting vehicle. If the event is a parade, it may be a guardman who guards the main character of the parade, or may be an SP (Security Police) if the main character is a key person. In short, if it is a person who can accompany a person who is an important monitoring target and can possess the above-described position information terminal (terminal that generates position information indicating the position of the own apparatus and transmits it by wireless communication) Good.

[2−4]移動物
監視対象位置特定部204は、実施例と異なる方法で重点的な監視対象を特定してもよい。例えばイベントがパレードや祭りのように重点的な監視対象が人(パレードで祝福される人や祭りで輿を担ぐ人など)であり、それらの人が携帯端末を所持可能であれば、監視対象位置特定部204は、重点的な監視対象自身が所持する携帯端末が測定する位置を重点的な監視対象の監視エリア内の位置として特定してもよい。
[2-4] Moving object The monitoring target position specifying unit 204 may specify a focused monitoring target by a method different from the embodiment. For example, if an event is a parade or festival, the focus is on people (such as people who are blessed at a parade or people who carry bags at festivals), and those people can carry a mobile device. The position specifying unit 204 may specify the position measured by the mobile terminal possessed by the priority monitoring target itself as the position in the monitoring area of the priority monitoring target.

また、重点的な監視対象に車両やバイク、ドローン(遠隔操作可能な無人飛行装置)などの移動物が先導又は追従する場合、或いは上空からイベントを俯瞰可能なヘリコプター、飛行船で監視する場合、監視対象位置特定部204は、重点的な監視対象自身の移動に応じて移動可能な移動物の有する測位手段(GPSモジュール等)が測定する位置に基づき重点的な監視対象の監視エリア内の位置を特定してもよい。この場合、移動物は、測位手段に加えて、測定した位置情報を送信する無線通信手段も備える。   In addition, when a moving object such as a vehicle, a motorcycle, or a drone (remotely-operated unmanned flying device) leads or follows the focused monitoring target, or when monitoring with a helicopter or airship that can look down on the event from above, monitoring The target position specifying unit 204 determines the position in the monitoring area of the priority monitoring target based on the position measured by the positioning means (such as a GPS module) of the moving object that can move according to the movement of the priority monitoring target itself. You may specify. In this case, the moving object includes a wireless communication unit that transmits the measured position information, in addition to the positioning unit.

このように、重点的な監視対象に同行するのは人である必要はなく、測位手段及び無線通信手段を備えて且つ監視対象が移動した場合についていくことができるものであればよい。また上空からイベントの進行状況を俯瞰可能な移動物で監視する移動物である場合、測位手段に加えて、例えば撮像手段を備え、監視対象位置特定部204が、撮影方向、高度、撮影条件(俯角、倍率等)に基づいて重点的な監視対象の位置を特定するようにしてもよい。   In this way, it is not necessary for a person to accompany the priority monitoring target, as long as it is equipped with positioning means and wireless communication means and can follow the case where the monitoring target moves. In addition, in the case of a moving object that monitors the progress of the event from the sky with a moving object that can be viewed from the sky, in addition to the positioning means, for example, an imaging means is provided, and the monitoring target position specifying unit 204 includes the shooting direction, altitude, and shooting conditions ( Based on the depression angle, magnification, etc.), the position of the focused monitoring target may be specified.

[2−5]現在時刻・経過時間
監視対象位置特定部204は、重点的な監視対象の特定に、現在時刻やイベント開始からの経過時間を利用してもよい。例えば演奏会やライブなどは、イベントがタイムテーブルに沿って行われるので、現在時刻が分かればイベントの進行状況も把握できる。また、開始時刻が遅れた場合でも、イベント開始からの経過時間が分かれば、イベントの進行状況も把握できる。
[2-5] Current Time / Elapsed Time The monitoring target position specifying unit 204 may use the current time or the elapsed time from the start of the event for specifying the priority monitoring target. For example, in concerts and live performances, events are performed according to a timetable, so if the current time is known, the progress of the event can be grasped. Even if the start time is delayed, the progress of the event can be grasped if the elapsed time from the start of the event is known.

本変形例では、監視対象位置特定部204は、イベントについて定められたタイムテーブルに基づき、現在の時刻から重点的な監視対象の監視エリア内の位置を特定する。また、監視対象位置特定部204は、イベントについて定められたタイムテーブルに基づき、イベントの開始から経過した時間に基づいて、重点的な監視対象の監視エリア内の位置を特定する。いずれの場合も、監視対象位置特定部204は、例えばイベントの開始前及び終了後は会場の周辺を重点的な監視対象として特定し、イベント中は会場の内部を重点的な監視対象として特定する。   In the present modification, the monitoring target position specifying unit 204 specifies the position in the monitoring area that is the priority monitoring target from the current time based on the time table determined for the event. In addition, the monitoring target position specifying unit 204 specifies a position in the monitoring area of the priority monitoring target based on the time elapsed from the start of the event based on the time table determined for the event. In any case, for example, the monitoring target position specifying unit 204 specifies the vicinity of the venue as an important monitoring target before and after the start of the event, and specifies the inside of the venue as an important monitoring target during the event. .

[2−6]リアルタイム配信サービス
監視対象位置特定部204は、重点的な監視対象の特定に、リアルタイム配信サービスを利用してもよい。リアルタイム配信サービスとは、現在起きている出来事(イベントも含まれる)に関する情報をリアルタイムに配信するサービスである。具体的には、テレビのデジタル放送でマラソンの走行位置を示す情報を配信するサービスや、スポーツの試合の実況中継を配信するサービス、花火大会の現在の混雑状況を配信するサービスなどが含まれる。
[2-6] Real-Time Distribution Service The monitoring target position specifying unit 204 may use a real-time distribution service for specifying a focused monitoring target. The real-time distribution service is a service that distributes information on an event (including an event) that is currently occurring in real time. Specifically, it includes a service that distributes information indicating the running position of a marathon on a digital television broadcast, a service that distributes a live broadcast of a sports game, a service that distributes the current congestion situation of a fireworks display, and the like.

監視対象位置特定部204は、リアルタイム配信サービスにより配信されたイベントに関する情報に基づいて監視対象の位置を特定する。例えば、マラソンの走行位置を示す情報が配信される場合には、監視対象位置特定部204は、その情報が示す先頭集団の位置を監視対象の位置として特定する。また、スポーツの試合の実況中継が配信される場合には、監視対象位置特定部204は、実況中継から試合の開始前、試合中、試合の終了後というイベントの進行状況を判断し、その進行状況に応じた場所を監視対象の位置として特定する。   The monitoring target position specifying unit 204 specifies the position of the monitoring target based on information related to the event distributed by the real-time distribution service. For example, when information indicating the marathon running position is distributed, the monitoring target position specifying unit 204 specifies the position of the head group indicated by the information as the position of the monitoring target. In addition, when a live broadcast of a sports game is distributed, the monitoring target position specifying unit 204 determines the progress of the event from the live broadcast before the start of the game, during the game, and after the end of the game. A location corresponding to the situation is specified as a position to be monitored.

監視対象位置特定部204は、配信される情報がテキスト情報であれば、例えばそこから各進行状況に対応付けて予め定められたキーワード(「開始時刻」や「終了時刻」など)を抽出し、抽出されたキーワードに対応する進行状況であることを判断する。監視対象位置特定部204は、配信される情報が音声又は映像であれば、音声認識又は画像認識を行ったうえでキーワードを抽出してこの判断を行う。本変形例によれば、重点的な監視対象やその同行者の位置情報を取得できない場合やイベントが予定通りに進まない場合でも、監視対象の位置を特定することができる。   If the information to be distributed is text information, the monitoring target position specifying unit 204 extracts, for example, a predetermined keyword (“start time”, “end time”, etc.) associated with each progress status from there, It is determined that the progress status corresponds to the extracted keyword. If the information to be distributed is audio or video, the monitoring target position specifying unit 204 extracts the keyword after performing audio recognition or image recognition and performs this determination. According to this modification, the position of the monitoring target can be specified even when the position information of the focused monitoring target and the accompanying person cannot be acquired or even when the event does not proceed as scheduled.

[2−7]その他の情報
イベントの進行状況を示す情報(状況情報)は上述したものに限らない。例えば、スタジアムやライブ会場などで入場者数を計上する仕組みがある場合、入場者数が定員に対して一定の割合(例えば95%など)になったときにイベントが開始されると判断できる(この場合は入場者数が状況情報)。また、最寄りの駅から会場までのルートに設置された固定カメラ40の映像から人の混雑度が分かるので、混雑度が高い場合はイベントの開始前で、混雑度が低くなるとイベントが開始されたと判断できる(この場合は固定カメラの映像が状況情報)。
[2-7] Other information Information (situation information) indicating the progress of the event is not limited to the above. For example, if there is a mechanism for counting the number of visitors at a stadium or live venue, it can be determined that the event will start when the number of visitors reaches a certain percentage of the capacity (for example, 95%) ( In this case, the number of visitors is status information). In addition, the crowded degree of people can be seen from the video of the fixed camera 40 installed on the route from the nearest station to the venue, so if the congestion level is high, the event started when the congestion level was low before the start of the event. Can be judged (in this case, the video of the fixed camera is the status information).

図9は本変形例の監視センタサーバ装置20aが実現する機能構成を表す。監視センタサーバ装置20aは、図4に表す同行者情報取得部203の代わりに状況情報取得部211を備える。状況情報取得部211は、イベントの進行状況を示す状況情報を取得する機能であり、本発明の「状況取得手段」の一例である。状況情報取得部211は、例えば計上された会場への入場者数を記憶するシステムからその入場者数の情報を状況情報として取得する。   FIG. 9 shows a functional configuration realized by the monitoring center server device 20a of this modification. The monitoring center server device 20a includes a situation information acquisition unit 211 instead of the accompanying person information acquisition unit 203 illustrated in FIG. The situation information acquisition unit 211 has a function of acquiring situation information indicating the progress of an event, and is an example of the “situation acquisition unit” of the present invention. The situation information acquisition unit 211 acquires, as situation information, information on the number of visitors from, for example, a system that stores the counted number of visitors to the venue.

また、状況情報取得部211は、前述したルートに設置された固定カメラ40の映像を状況情報として取得してもよい。状況情報取得部211は、取得した状況情報を監視対象位置特定部204に供給する。監視対象位置特定部204は、状況情報取得部211により取得された状況情報が示す進行状況に応じた位置を監視対象の位置として特定する。   Further, the situation information acquisition unit 211 may acquire the video of the fixed camera 40 installed in the above-described route as the situation information. The situation information acquisition unit 211 supplies the acquired situation information to the monitoring target position specifying unit 204. The monitoring target position specifying unit 204 specifies a position corresponding to the progress status indicated by the status information acquired by the status information acquiring unit 211 as a monitoring target position.

監視対象位置特定部204は、入場者数が状況情報として取得された場合、例えば、入場者数が会場の定員の一定の割合未満であればイベントの開始前と判断して入場時に混雑する入場口の前を監視対象の位置と特定し、入場者数が一定の割合以上であればイベントが開始されたと判断して会場内を監視対象の位置と特定する。   When the number of visitors is acquired as status information, for example, the monitoring target position specifying unit 204 determines that it is before the start of the event if the number of visitors is less than a certain percentage of the venue capacity. The position in front of the mouth is identified as the position to be monitored, and if the number of visitors is equal to or greater than a certain percentage, it is determined that the event has started and the inside of the venue is identified as the position to be monitored.

また、監視対象位置特定部204は、固定カメラ40の映像が状況情報として取得された場合、例えば、その映像から人の輪郭を抽出し、映像全体のうち人が占める領域の割合を算出し、算出した割合が閾値以上であれば会場に向けて人が移動している最中、すなわちイベントの開始前と判断してこのルート又は入場口前を監視対象の位置と特定し、算出した割合が閾値未満になったら会場への移動が終わった、すなわちイベントが開始されたと判断して会場内を監視対象の位置と特定する。本変形例によれば、上記の各方法で重点的な監視対象の位置を特定できない場合にその位置を特定することができる。   In addition, when the video of the fixed camera 40 is acquired as the situation information, the monitoring target position specifying unit 204, for example, extracts a person's outline from the video, calculates the ratio of the area occupied by the person in the entire video, If the calculated ratio is equal to or greater than the threshold, it is determined that the person is moving toward the venue, that is, before the start of the event, and this route or entrance is identified as the position to be monitored, and the calculated ratio is If it becomes less than the threshold value, it is determined that the movement to the venue has ended, that is, the event has started, and the inside of the venue is identified as the position to be monitored. According to this modified example, when the position of the focused monitoring target cannot be specified by the above methods, the position can be specified.

[2−8]混雑度
撮影装置の優先度を判定する際に、周辺の混雑度が考慮されてもよい。
図10は本変形例の監視センタサーバ装置20bが実現する機能構成を表す。監視センタサーバ装置20bは、図4に表す各部に加えて混雑度判定部212を備える。混雑度判定部212は、監視対象位置特定部204により特定された監視対象の位置の近辺の混雑度を判定する機能であり、本発明の「混雑判定手段」の一例である。
[2-8] Congestion degree When determining the priority of the imaging apparatus, the congestion degree of the surroundings may be considered.
FIG. 10 shows a functional configuration realized by the monitoring center server device 20b of this modification. The monitoring center server device 20b includes a congestion degree determination unit 212 in addition to the units illustrated in FIG. The congestion degree determination unit 212 has a function of determining the degree of congestion in the vicinity of the position of the monitoring target specified by the monitoring target position specifying unit 204, and is an example of the “congestion determination unit” of the present invention.

本変形では、監視対象位置特定部204が、特定した重点的な監視対象の位置情報を混雑度判定部212に供給し、監視員端末情報取得部201及び固定カメラ情報取得部202が、取得した監視員端末情報及び固定カメラ情報を混雑度判定部212に供給する。混雑度判定部212は、特定された監視対象の位置の近辺(具体的にはその位置から所定の範囲内)に位置する撮影装置の映像から人の輪郭を抽出して、映像全体のうち人が占める領域の割合を前述した混雑度(監視対象の位置の近辺の混雑度)として判定する。混雑度の判定方法はこれに限られるものではなく、例えば、上空から飛行船等で撮影した熱画像に基づき判定するようにしてもよい。   In this modification, the monitoring target position specifying unit 204 supplies the specified priority monitoring target position information to the congestion degree determination unit 212, and the monitor terminal information acquisition unit 201 and the fixed camera information acquisition unit 202 have acquired the information. The monitor terminal information and the fixed camera information are supplied to the congestion degree determination unit 212. The congestion degree determination unit 212 extracts the outline of a person from the video of the imaging device located in the vicinity of the specified monitoring target position (specifically, within a predetermined range from the position), Is determined as the above-described congestion degree (congestion degree in the vicinity of the position to be monitored). The method for determining the degree of congestion is not limited to this. For example, the degree of congestion may be determined based on a thermal image taken with an airship or the like from above.

本変形例では、所定の範囲を、監視対象の位置からの距離が図5に表す閾値Th1未満の範囲であるものとする。つまり、監視対象の位置の近辺に位置する撮影装置は、図5で述べた方法では優先度が「1」と判定される。混雑度判定部212は、供給された各情報と、判定した混雑度とを優先度判定部205に供給する。優先度判定部205は、特定された監視対象の位置及び取得された位置情報(監視員端末情報及び固定カメラ情報に含まれる位置情報)に加え、混雑度判定部212により判定された混雑度に基づいて撮影装置の優先度を判定する。   In this modification, the predetermined range is a range in which the distance from the monitoring target position is less than the threshold value Th1 shown in FIG. That is, the imaging device located in the vicinity of the monitoring target position is determined to have a priority of “1” by the method described in FIG. The congestion level determination unit 212 supplies the supplied information and the determined congestion level to the priority level determination unit 205. The priority determination unit 205 determines the congestion level determined by the congestion level determination unit 212 in addition to the specified monitoring target position and the acquired position information (position information included in the monitor terminal information and the fixed camera information). Based on this, the priority of the photographing apparatus is determined.

優先度判定部205は、例えば、図5で述べた方法で各撮影装置の仮の優先度を判定する。優先度判定部205は、仮の優先度が「1」であった撮影装置、すなわち監視対象の位置の近辺に位置する撮影装置については、取得された監視対象の位置の近辺の混雑度が閾値以上である場合は優先度を「1」のままとし、その混雑度が閾値未満である場合には優先度を「1.5」と判定する。つまり、優先度判定部205は、混雑度が閾値以上の場合の優先度を、混雑度が閾値未満の場合よりも高くする。   For example, the priority determination unit 205 determines the provisional priority of each photographing apparatus by the method described in FIG. The priority determination unit 205 sets the threshold value of the degree of congestion in the vicinity of the acquired position of the monitoring target for the imaging apparatus whose provisional priority is “1”, that is, the imaging apparatus located in the vicinity of the position of the monitoring target. If it is above, the priority is left as “1”, and if the degree of congestion is less than the threshold, the priority is determined as “1.5”. That is, the priority determination unit 205 sets the priority when the degree of congestion is equal to or greater than the threshold to be higher than when the degree of congestion is less than the threshold.

図11は本変形例の撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「1.5」、「2」、「3」という優先度に、「314.6万画素(2048×1536)」、「192万画素(1600×1200)」、「122.9万画素(1280×960)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。処理決定部206は、この撮影用パラメータテーブルを用いて、実施例と同様に撮影用パラメータを決定する。   FIG. 11 shows an example of the shooting parameter table of this modification. In this shooting parameter table, “31,460,000 pixels (2048 × 1536)”, “1,920,000 pixels (1600 × 1200) are assigned priority levels“ 1 ”,“ 1.5 ”,“ 2 ”, and“ 3 ”. ) ”,“ 122.9 million pixels (1280 × 960) ”, and“ 307,000 pixels (640 × 480) ”are associated with each other. The processing determination unit 206 determines the shooting parameters using the shooting parameter table in the same manner as in the embodiment.

なお、画像処理用パラメータテーブルについても、図11に表すように4つの優先度に画像処理用パラメータを対応付けてもよい。このように、本変形例では、監視対象の位置の近辺については、混雑度に応じてさらに優先度を変化させることで、混雑している場合にはそうでない場合に比べて撮影される映像の画質をさらに高くしたり、画像処理において単位時間当たりに処理されるデータ量をさらに多くしたりすることができる。   In the image processing parameter table, image processing parameters may be associated with four priorities as shown in FIG. As described above, in this modified example, the priority of the vicinity of the position of the monitoring target is further changed according to the degree of congestion, so that when the image is congested, the image captured is compared with the case where it is not. The image quality can be further increased, and the amount of data processed per unit time in image processing can be further increased.

[2−9]撮影装置
上記の実施例では、監視エリアの映像を撮影する撮影装置として監視員端末10及び固定カメラ40が用いられたが、どちらか一方だけが用いられてもよい。その場合でも、複数の撮影装置が撮影する映像に関する処理が優先度に応じて決定されることで、重点的に監視すべき対象が動的に変化しても、実施例のようにその対象の付近で発生した異常事象を迅速に把握することができる。
[2-9] Shooting Device In the above embodiment, the monitor terminal 10 and the fixed camera 40 are used as the shooting device for shooting the video of the monitoring area, but only one of them may be used. Even in that case, even if the target to be monitored is dynamically changed by determining the processing related to the video captured by the plurality of imaging devices according to the priority, the target of the target as in the embodiment is changed. Abnormal events that occur in the vicinity can be quickly grasped.

[2−10]優先度
優先度は、上記の各例とは異なる表し方をしてもよい。例えば「Lv1、Lv2、・・」や「A、B、C、・・」、「高、中、低」など、指標としての上限関係を表す記号や文字、図形などが用いられてもよい。要するに、撮影装置の優先度が高いものと低いものとを判別できれば、どのように表された優先度が用いられてもよい。
[2-10] Priority Priority may be expressed differently from the above examples. For example, “Lv1, Lv2,...”, “A, B, C,. In short, the priority expressed in any way may be used as long as the priority of the photographing device can be determined as high and low.

[2−11]監視エリアの監視者
上記の実施例では、監視エリアに配置された監視員が監視エリアの現場で監視の役割を果たす監視者であったが、これに限らない。例えば、監視エリア内で働く監視員以外のスタッフが監視者であってもよい。スタッフとは、具体的には、例えばマラソン会場が監視エリアである場合、会場の案内員、コース整理員、給水スタッフ、観客の誘導員などであり、スタジアム等が監視エリアである場合、監視員に相当する警備員の他、チケットの販売員、店舗の店員、清掃員などである。また、人間に限らず、例えば監視用のカメラが内蔵された自走式のロボットやドローン、監視員端末を装着した動物(警察犬のように訓練された犬等)などであってもよい。
[2-11] Monitoring Area Monitor In the above-described embodiment, the monitoring staff arranged in the monitoring area is a monitoring role playing a role of monitoring in the monitoring area, but the present invention is not limited to this. For example, the staff other than the supervisor working in the surveillance area may be the supervisor. Specifically, for example, when a marathon venue is a monitoring area, the staff is a venue guide, a course organizer, a water supply staff, a spectator guide, etc., and when a stadium or the like is a monitoring area, In addition to security guards equivalent to the above, they are ticket sales, store clerk, and cleaning staff. Moreover, it is not limited to a human being, but may be, for example, a self-propelled robot or drone with a built-in monitoring camera, an animal (such as a dog trained like a police dog) equipped with a monitor terminal.

[2−12]各機能を実現する装置
図4等に表す機能を実現する装置は、上述した各装置に限らない。例えば、監視センタサーバ装置が入力装置及び出力装置を備えておいて、オペレータ端末30が備える各部を実現してもよい。また、反対に、監視センタサーバ装置20が備える各部をオペレータ端末が実現してもよい。また、監視センタサーバ装置が実現する機能を、複数の情報処理装置が分担して実現してもよい。例えば、第1装置が監視員端末情報取得部201から優先度判定部205までの機能を実現し、第2装置が処理決定部206から報知部210までの機能を実現するという具合である。いずれの場合も、監視システムが備える装置全体で、上述した機能を実現していればよい。
[2-12] Apparatus for Realizing Each Function The apparatus for realizing the functions shown in FIG. 4 and the like is not limited to the above-described apparatuses. For example, the monitoring center server device may include an input device and an output device, and each unit included in the operator terminal 30 may be realized. On the contrary, the operator terminal may realize each unit included in the monitoring center server device 20. Further, a function realized by the monitoring center server device may be realized by sharing a plurality of information processing devices. For example, the first device implements the functions from the supervisor terminal information acquisition unit 201 to the priority determination unit 205, and the second device implements the functions from the process determination unit 206 to the notification unit 210. In any case, the above-described functions may be realized by the entire apparatus included in the monitoring system.

[2−13]指示の自動化
実施例では、オペレータ端末30を使用するオペレータが監視員に対して指示を行ったが、将来は、この指示を含むオペレータの作業が自動化されてもよい。例えば、AI(Artificial Intelligence、人工知能)を活用して、監視員端末10からの投稿情報が示す事案の情報取得位置に最も近い監視員を選定して、選定した監視員に必要な情報(事案の発生場所を示す情報等)を伝達する。このように、一定のルールに基づく処理で実現可能な作業については、自動化されてもよい。
[2-13] Automation of instruction In the embodiment, the operator using the operator terminal 30 gives an instruction to the monitoring staff. However, in the future, the work of the operator including this instruction may be automated. For example, by utilizing AI (Artificial Intelligence), a monitor closest to the information acquisition position of the case indicated by the posted information from the monitor terminal 10 is selected, and information (case) required for the selected monitor is selected. Information indicating the location of the occurrence). In this way, work that can be realized by processing based on certain rules may be automated.

[2−14]発明のカテゴリ
本発明は、監視員端末10、監視センタサーバ装置20、オペレータ端末30、固定カメラ40及び同行者端末50という各装置の他、それらの装置を備える監視システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられる。また、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-14] Category of Invention The present invention can be used as a monitoring system including these devices in addition to the devices such as the supervisor terminal 10, the monitoring center server device 20, the operator terminal 30, the fixed camera 40, and the accompanying terminal 50. Be captured. The present invention can also be understood as an information processing method for realizing processing performed by each device. It can also be understood as a program for causing a computer that controls each device to function. This program may be provided in the form of a recording medium such as an optical disk in which it is stored, or may be provided in the form of being downloaded to a computer via a network such as the Internet, installed and made available for use. May be.

1…監視システム、10…監視員端末、20…監視センタサーバ装置、30…オペレータ端末、40…固定カメラ、50…同行者端末、101…測位部、102…位置情報送信部、103…撮影部、104…映像送信部、105…撮影動作制御部、201…監視員端末情報取得部、202…固定カメラ情報取得部、203…同行者情報取得部、204…監視対象位置特定部、205…優先度判定部、206…処理決定部、207…撮影指示部、208…画像処理動作制御部、209…画像処理部、210…報知部、211…状況情報取得部、212…混雑度判定部、301…報知情報表示部、401…撮影部、402…映像送信部、403…撮影動作制御部、501…測位部、502…位置情報送信部。 DESCRIPTION OF SYMBOLS 1 ... Monitoring system, 10 ... Monitoring terminal, 20 ... Monitoring center server apparatus, 30 ... Operator terminal, 40 ... Fixed camera, 50 ... Accompanying terminal, 101 ... Positioning part, 102 ... Position information transmission part, 103 ... Shooting part , 104 ... Video transmission unit, 105 ... Shooting operation control unit, 201 ... Monitor terminal information acquisition unit, 202 ... Fixed camera information acquisition unit, 203 ... Accompanying person information acquisition unit, 204 ... Monitoring target position specifying unit, 205 ... Priority Degree determination unit, 206 ... process determination unit, 207 ... shooting instruction unit, 208 ... image processing operation control unit, 209 ... image processing unit, 210 ... notification unit, 211 ... status information acquisition unit, 212 ... congestion degree determination unit, 301 ... notification information display unit, 401 ... imaging unit, 402 ... video transmission unit, 403 ... imaging operation control unit, 501 ... positioning unit, 502 ... position information transmission unit.

Claims (8)

監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度に応じて決定する決定手段と
を備える監視システム。
Obtaining means for obtaining position information of a plurality of photographing devices for photographing images of the monitoring area;
A specifying means for specifying a position in the monitoring area of the priority monitoring target that changes as the event progresses;
Determining means for determining the priority of each of the plurality of imaging devices based on the identified position of the monitoring target and the acquired positional information of the plurality of imaging devices;
A monitoring system comprising: a determining unit that determines a process related to the video according to the priority determined for the imaging device that captures the video.
前記映像に関する処理は、前記映像の撮影に関する撮影関連処理であり、
前記決定手段は、前記撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を前記優先度に応じて決定する
請求項1に記載の監視システム。
The process related to the video is a shooting related process related to shooting the video,
The monitoring system according to claim 1, wherein the determination unit determines a transmission data amount per unit time when the video obtained by the shooting-related processing is transmitted according to the priority.
前記映像に関する処理は、当該映像に対する画像処理であり、
前記決定手段は、前記優先度に応じて前記画像処理を決定する
請求項1又は2に記載の監視システム。
The processing related to the video is image processing for the video,
The monitoring system according to claim 1, wherein the determination unit determines the image processing according to the priority.
前記監視対象は人であり、
前記特定手段は、前記監視対象又は当該監視対象の同行者が所持する位置情報端末に基づき前記監視対象の位置を特定する
請求項1から3のいずれか1項に記載の監視システム。
The monitoring target is a person,
The monitoring system according to any one of claims 1 to 3, wherein the specifying unit specifies a position of the monitoring target based on a position information terminal possessed by the monitoring target or a companion of the monitoring target.
前記監視対象は人であり、
前記特定手段は、前記監視対象の移動に応じて移動可能な移動物の有する測位手段が測定する位置に基づき前記監視対象の位置を特定する
請求項1から4のいずれか1項に記載の監視システム。
The monitoring target is a person,
5. The monitoring according to claim 1, wherein the specifying unit specifies the position of the monitoring target based on a position measured by a positioning unit included in a moving object that can move according to the movement of the monitoring target. system.
前記特定手段は、リアルタイム配信サービスにより配信された前記イベントに関する情報に基づいて前記監視対象の位置を特定する
請求項1から5のいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 1 to 5, wherein the specifying unit specifies the position of the monitoring target based on information related to the event distributed by a real-time distribution service.
前記イベントの進行状況を示す状況情報を取得する状況取得手段を備え、
前記特定手段は、取得された前記状況情報が示す進行状況に基づき前記監視対象の位置を特定する
請求項1から5のいずれか1項に記載の監視システム。
Comprising status acquisition means for acquiring status information indicating the progress status of the event;
The monitoring system according to any one of claims 1 to 5, wherein the specifying unit specifies a position of the monitoring target based on a progress status indicated by the acquired status information.
特定された前記監視対象の位置の近辺の混雑度を判定する混雑判定手段を備え、
前記判定手段は、前記監視対象の位置及び前記複数の撮影装置の位置情報に加え、判定された前記混雑度に基づいて前記複数の撮影装置の優先度を判定する
請求項1から7のいずれか1項に記載の監視システム。
Congestion determination means for determining the degree of congestion in the vicinity of the specified position of the monitoring target,
The determination unit determines a priority of the plurality of imaging devices based on the determined congestion level in addition to the position of the monitoring target and the position information of the plurality of imaging devices. The monitoring system according to item 1.
JP2017065008A 2017-03-29 2017-03-29 Monitoring system Active JP6941457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017065008A JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017065008A JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Publications (2)

Publication Number Publication Date
JP2018170573A true JP2018170573A (en) 2018-11-01
JP6941457B2 JP6941457B2 (en) 2021-09-29

Family

ID=64018810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017065008A Active JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Country Status (1)

Country Link
JP (1) JP6941457B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
WO2020246251A1 (en) 2019-06-04 2020-12-10 ソニー株式会社 Information processing device, method, and program
JPWO2021106054A1 (en) * 2019-11-25 2021-06-03

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009171471A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Video network system
JP2009188884A (en) * 2008-02-08 2009-08-20 Fujitsu Ltd Band control server, band control program, and monitoring system
JP2011114580A (en) * 2009-11-26 2011-06-09 Panasonic Corp Multiple cameras monitoring system, mobile terminal apparatus, center apparatus, and method for monitoring multiple cameras
WO2014091667A1 (en) * 2012-12-10 2014-06-19 日本電気株式会社 Analysis control system
JP2014143477A (en) * 2013-01-22 2014-08-07 Canon Inc Imaging system
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009171471A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Video network system
JP2009188884A (en) * 2008-02-08 2009-08-20 Fujitsu Ltd Band control server, band control program, and monitoring system
JP2011114580A (en) * 2009-11-26 2011-06-09 Panasonic Corp Multiple cameras monitoring system, mobile terminal apparatus, center apparatus, and method for monitoring multiple cameras
WO2014091667A1 (en) * 2012-12-10 2014-06-19 日本電気株式会社 Analysis control system
JP2014143477A (en) * 2013-01-22 2014-08-07 Canon Inc Imaging system
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
JP7140043B2 (en) 2019-05-07 2022-09-21 株式会社デンソー Information processing equipment
WO2020246251A1 (en) 2019-06-04 2020-12-10 ソニー株式会社 Information processing device, method, and program
JPWO2021106054A1 (en) * 2019-11-25 2021-06-03
WO2021106054A1 (en) * 2019-11-25 2021-06-03 ジャパンエレベーターサービスホールディングス株式会社 Security camera apparatus and security camera apparatus control program
JP7227399B2 (en) 2019-11-25 2023-02-21 ジャパンエレベーターサービスホールディングス株式会社 Security camera device and security camera device control program

Also Published As

Publication number Publication date
JP6941457B2 (en) 2021-09-29

Similar Documents

Publication Publication Date Title
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
US9607501B2 (en) Systems and methods for providing emergency resources
JP2023174753A (en) Video sharing system, video sharing method, and program
JP2019036872A (en) Search support device, search support method and search support system
US20120207356A1 (en) Targeted content acquisition using image analysis
JP7081972B2 (en) Parking monitoring system, parking monitoring method and recording medium
US9615015B2 (en) Systems methods for camera control using historical or predicted event data
JP6285614B2 (en) Surveillance system, photographing side device, and collation side device
JP2015002553A (en) Information system and control method thereof
JP2015204512A (en) Information processing apparatus, information processing method, camera, reception device, and reception method
KR20190024934A (en) Multi image displaying method, Multi image managing server, Multi image displaying system, Computer program and Recording medium storing computer program for the same
JP7338739B2 (en) Information processing device, control method, and program
TW201802764A (en) Crowd monitoring device and crowd monitoring system
JP6941457B2 (en) Monitoring system
KR20140052357A (en) System for tracking object using multi cameras and method thereof
WO2012137367A1 (en) Image accumulation system
WO2021068553A1 (en) Monitoring method, apparatus and device
KR101840300B1 (en) Apparatus and method for searching cctv image
JP2022020891A (en) Congestion information notification system
JP2017529029A (en) Camera control and image streaming
JP2009171472A (en) System and device for monitoring network video image
KR101954951B1 (en) Multi image displaying method
KR101178886B1 (en) High resolution digital ptz camera, monitoring system including high resolution digital ptz camera and data transmisson method thereof
CN113658394A (en) River channel monitoring method and device
CN113302906B (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6941457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150