JP2018207279A - Image monitoring system and image monitoring device - Google Patents

Image monitoring system and image monitoring device Download PDF

Info

Publication number
JP2018207279A
JP2018207279A JP2017110127A JP2017110127A JP2018207279A JP 2018207279 A JP2018207279 A JP 2018207279A JP 2017110127 A JP2017110127 A JP 2017110127A JP 2017110127 A JP2017110127 A JP 2017110127A JP 2018207279 A JP2018207279 A JP 2018207279A
Authority
JP
Japan
Prior art keywords
image
time
unit
image data
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017110127A
Other languages
Japanese (ja)
Other versions
JP6725454B2 (en
JP2018207279A5 (en
Inventor
紘樹 松岡
Hiroki Matsuoka
紘樹 松岡
桂 山本
Katsura Yamamoto
桂 山本
小林 祐一
Yuichi Kobayashi
祐一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2017110127A priority Critical patent/JP6725454B2/en
Publication of JP2018207279A publication Critical patent/JP2018207279A/en
Publication of JP2018207279A5 publication Critical patent/JP2018207279A5/ja
Application granted granted Critical
Publication of JP6725454B2 publication Critical patent/JP6725454B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To provide an image monitoring system capable of speedily tracking an illegal intruder into a monitored site such as a building and grasping a region suffering abnormality in equipment or the like.SOLUTION: An administrative server 6 having received a request for image data from a monitoring terminal 14 installed at a monitoring site extracts camera images from composing cameras 4a to 4c installed at a monitored site 1 and calculates a time difference between a time of acquiring the images at the site and a time of completing image composition. When the time difference exceeds a predetermined time, image composition is performed with a reduced frame rate.SELECTED DRAWING: Figure 1

Description

本発明は、映像監視システム及び映像監視装置に関する。   The present invention relates to a video monitoring system and a video monitoring apparatus.

駅舎やビルなどの監視業務は人件費が嵩むため、通常は、人件費削減のために監視される側の被監視サイトには常駐の警備員を配置せずに、監視カメラやカメラ画像の記録装置を設置している。そして、駅舎の監視拠点やビルのオーナーの事務所等の監視する側に設けられた監視サイトからパソコン等の端末装置を用いて、不正侵入者や機器の故障等の監視を行っている。
監視者が被監視サイトへの不正侵入や、被監視サイトに備えられる機器の故障等の異常状況を確認したときには、監視者は警備会社や巡回担当者に連絡し、被監視サイトに向かわせるための対応を取っている。
Since monitoring work such as station buildings and buildings is labor intensive, usually surveillance cameras and camera images are recorded without resident security guards at the monitored site being monitored to reduce labor costs. The device is installed. In addition, unauthorized intruders and equipment failures are monitored using a terminal device such as a personal computer from a monitoring site provided on a monitoring side such as a monitoring base of a station building or an office of a building owner.
When a monitor confirms an abnormal situation such as an unauthorized entry into a monitored site or a failure of equipment provided at the monitored site, the monitor contacts the security company or patrol officer and heads to the monitored site. Is taking action.

一方、被監視サイトを広域で監視するため、複数のカメラを設置し、表示装置の一画面内に、複数の被監視サイトを分割して表示するのが一般的である。しかし、複数のカメラからの映像を分割して表示する場合には、広域の映像が確認できないことが多くなり、また当然のことながら、各カメラの位置を把握しておかなくてはならないという問題がある。
そこで、被監視サイトの状況を遠隔位置から詳細に把握するために、単独の監視カメラの画像だけではなく、複数の監視カメラの画像を監視者が一括して確認できるような映像監視システムが提案されている(例えば、特許文献1参照)。
また、表示する合成画像のずれを修正するために最適化を施す技術も提案されている(例えば、特許文献2参照)。
On the other hand, in order to monitor a monitored site in a wide area, a plurality of cameras are generally installed, and a plurality of monitored sites are divided and displayed on one screen of a display device. However, when video from multiple cameras is divided and displayed, the wide-area video often cannot be confirmed, and of course, the position of each camera must be known. There is.
Therefore, in order to grasp the status of the monitored site in detail from a remote location, a video surveillance system is proposed in which a supervisor can check not only a single surveillance camera image but also a plurality of surveillance camera images at once. (For example, refer to Patent Document 1).
In addition, a technique for performing optimization in order to correct a shift of a displayed composite image has been proposed (see, for example, Patent Document 2).

特許5314741号公報Japanese Patent No. 5314741 特開2015−106860号公報Japanese Patent Laying-Open No. 2015-106860

一般的に、被監視サイトおける不正侵入や機器の故障の遠隔監視機能を備えた映像監視システムにおいて、不正侵入や機器の故障の発生時の画像から現地の異常状況を確認するとき、画像合成処理により複数のカメラ映像を1画面で表示することがある。しかし、このとき、ネットワークの遅延や、サーバの処理能力などにより、複数のカメラ画像の画面にずれが生じる場合があり、これは、画像を長時間にわたり見続けなければならない監視員にとって好ましくない。   In general, in a video surveillance system equipped with a remote monitoring function for unauthorized intrusion and equipment failure at the monitored site, image composition processing is used to check the local abnormal situation from images at the time of unauthorized intrusion and equipment failure. Thus, a plurality of camera images may be displayed on one screen. However, at this time, the screen of the plurality of camera images may be shifted due to network delay, server processing capability, and the like, which is not preferable for a monitor who must continue to view images for a long time.

例えば、複数のカメラで撮影した、動きが激しい道路の画像Aと動きが少ない敷地の画像Bを合成すると、動きの激しい方の画像Aの情報量が増え、合成する一方の画像Aの方に遅延が発生する。このため、同じ時刻に撮影した画像であっても、画像Aと画像Bの間で時間差が発生し、画像合成後の画面のA画像とB画像のつなぎ目で物体が消えるという現象が生じる。
このため、合成画面上での画面ずれの発生を防ぐための画像処理を行う必要があるが、この画像処理を行うとリアルタイム性を損なうという問題もあった。
For example, if the image A of a road with a lot of movement taken with a plurality of cameras and the image B of a site with a little movement are combined, the amount of information of the image A with a high movement increases, and the image A to be combined There is a delay. For this reason, even if the images are taken at the same time, a time difference occurs between the images A and B, and the object disappears at the joint between the A image and the B image on the screen after the image synthesis.
For this reason, it is necessary to perform image processing for preventing the occurrence of screen shift on the composite screen. However, if this image processing is performed, there is a problem that the real-time property is impaired.

本発明は、上述した従来技術における問題点を解消するためになされたものであり、その目的は、被監視サイトへの不正侵入や被監視サイトの機器の故障に関する異常状況の詳細な情報を迅速に把握することができる映像監視システム及び映像監視装置を提供することにある。   The present invention has been made to solve the above-described problems in the prior art, and its purpose is to quickly obtain detailed information on abnormal situations relating to unauthorized entry into a monitored site and failure of equipment at the monitored site. It is an object of the present invention to provide an image monitoring system and an image monitoring apparatus that can be grasped.

上記技術的課題を解決するため、本発明は、被監視サイトと、監視端末を備える監視サイトと、管理サーバとをネットワーク回線で接続した映像監視システムである。
被監視サイトは、複数のカメラと、これらのカメラの画像を記録する記録装置と、この記録装置で記録した画像またはカメラからの画像をネットワーク回線に送信する通信装置と、を備える。
In order to solve the above technical problem, the present invention is a video monitoring system in which a monitored site, a monitoring site including a monitoring terminal, and a management server are connected by a network line.
The monitored site includes a plurality of cameras, a recording device that records images of these cameras, and a communication device that transmits an image recorded by the recording device or an image from the camera to a network line.

また、管理サーバは、被監視サイトから送信された画像を受信するとともに、管理サーバ内で処理された画像をネットワーク回線に送信する通信部と、被監視サイトからの画像データを合成する画像合成部を備える。さらに、被監視サイトから送られる画像データに付加されている時刻と、画像合成部で画像合成された時刻との時間差を検知する遅延検知部と、遅延検知部で検知された時間差が所定時間以上であるか否かを判定する遅延処理部と、通信部、画像合成部、遅延検知部及び遅延処理部の処理に関わる制御を行う制御部と、を備える。
そして、管理サーバの遅延処理部において、被監視サイトから送られる画像データに付加されている時刻と、画像合成部で画像合成された時刻との時刻差が所定時間以上であると判定された場合に、画像データを送信するフレームレートを変更する制御が行われる。
In addition, the management server receives an image transmitted from the monitored site, transmits a processed image in the management server to a network line, and an image composition unit that combines image data from the monitored site Is provided. Furthermore, a delay detector that detects a time difference between the time added to the image data sent from the monitored site and the time that the image is combined by the image combiner, and the time difference detected by the delay detector is a predetermined time or more A delay processing unit for determining whether or not the communication unit, a communication unit, an image synthesis unit, a delay detection unit, and a control unit that performs control related to the processing of the delay processing unit.
When the delay processing unit of the management server determines that the time difference between the time added to the image data sent from the monitored site and the time when the image is combined by the image combining unit is equal to or greater than a predetermined time In addition, control for changing the frame rate for transmitting image data is performed.

なお、監視サイトは、少なくとも管理サーバと通信可能な監視端末を備え、この監視端末は、その表示部に、被監視サイトから送られる複数の画像データを1画面上に分割して表示する分割表示と、画像合成部で合成された合成画像を1画面で表示する拡大表示を切り換えて表示することができるようになっている。   The monitoring site includes at least a monitoring terminal capable of communicating with the management server, and the monitoring terminal divides and displays a plurality of image data sent from the monitored site on one screen on the display unit. Thus, it is possible to switch and display an enlarged display in which the synthesized image synthesized by the image synthesizing unit is displayed on one screen.

本発明の映像監視システムによれば、不正侵入者の追跡を迅速に行うことができ、かつ設備の異常などの被害領域の把握を容易に行うことが可能となる。
上記した以外の課題、構成及び効果は、以下の実施の形態例の説明により明らかにされる。
According to the video monitoring system of the present invention, it is possible to quickly track an intruder and to easily grasp a damaged area such as an abnormality in equipment.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の第1の実施の形態の例に係る映像監視システムの全体的構成を示した概略図である。It is the schematic which showed the whole structure of the video surveillance system which concerns on the example of the 1st Embodiment of this invention. 本発明の第1の実施の形態の例に係る映像監視システムに用いられる管理サーバ並びに監視サイト及び被監視サイトで用いられる端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the terminal used in the management server used in the video monitoring system which concerns on the example of the 1st Embodiment of this invention, and a monitoring site and a monitoring site. 図1に示す画像合成用カメラから送信される画像データのデータ構造のテーブルを示す図である。It is a figure which shows the table of the data structure of the image data transmitted from the camera for image composition shown in FIG. 図1に示す画像合成用カメラから送信される画像データを管理サーバ内で処理した後の画像データのデータ構造のテーブルを示す図である。It is a figure which shows the table of the data structure of the image data after processing the image data transmitted from the camera for image composition shown in FIG. 1 within a management server. 本発明の第1の実施の形態の例に示す映像監視システムの被監視サイト側のカメラ設置位置のイメージ図である。It is an image figure of the camera installation position on the to-be-monitored site side of the video surveillance system shown in the example of the 1st Embodiment of this invention. 本発明の第1の実施の形態の例に示す映像監視システムの監視サイトの側の端末装置の監視画面を示す図であり、図6Aは分割表示の例、図6Bと図6Cは合成表示の例を示す図である。FIG. 6A is a diagram showing a monitoring screen of a terminal device on the monitoring site side of the video monitoring system shown in the example of the first embodiment of the present invention, FIG. 6A is an example of split display, and FIGS. 6B and 6C are composite display. It is a figure which shows an example. 本発明の第1の実施の形態の例に係わる映像監視システムの各部における動作処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement process in each part of the video surveillance system concerning the example of the 1st Embodiment of this invention. 本発明の第2の実施の形態の例に係わる映像監視システムの各部における動作処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the operation | movement process in each part of the video surveillance system concerning the example of the 2nd Embodiment of this invention.

[第1の実施の形態例の全体構成と機能]
以下、本発明の第1の実施の形態例(以下、「本例」と称する)である映像監視システムについて、図面を参照して説明する。
図1は、本例に係るビル設備機器用の映像監視システムの全体的構成を示した概略図である。図2は、本例の映像監視システムを構成する管理サーバと監視端末のハードウェア構成を示す図である。
[Overall Configuration and Function of First Embodiment]
A video surveillance system according to a first embodiment of the present invention (hereinafter referred to as “this example”) will be described below with reference to the drawings.
FIG. 1 is a schematic diagram showing the overall configuration of a video surveillance system for building equipment according to this example. FIG. 2 is a diagram illustrating a hardware configuration of the management server and the monitoring terminal that configure the video monitoring system of the present example.

図1に示すように、本例の映像監視システムは、複数の被監視サイト1〜1、管理サーバ6及び複数の監視サイト13〜13が、広域ネットワーク2に接続されて構成されている。ここで被監視サイト1〜1は、通常駅舎やビルなどの建物を指しており、被監視サイト1〜1を総称して述べるときには、被監視サイト1という。または図1に示す実施の形態例に合わせて単にビル1ということもある。また、複数の監視サイト13〜13を総称して述べるときには監視サイト13という。 As shown in FIG. 1, the video monitoring system of this example is configured by connecting a plurality of monitored sites 1 1 to 1 n , a management server 6 and a plurality of monitoring sites 13 1 to 13 m to a wide area network 2. ing. Here, the monitored sites 1 1 to 1 n refer to buildings such as normal station buildings and buildings, and the monitored sites 1 1 to 1 n are collectively referred to as monitored sites 1. Alternatively, the building 1 may be simply referred to in accordance with the embodiment shown in FIG. The plurality of monitoring sites 13 1 to 13 m are collectively referred to as the monitoring site 13.

被監視サイト1〜1は、ネットワーク回線2との接続を行う通信装置3と、画像合成用カメラ4a〜4dと、画像合成用カメラ4a〜4dの画像データを記録する記録装置5を備える。なお、画像合成用カメラ4a〜4dを総称して単にカメラ4または監視カメラ4と呼ぶこともある。 The monitored sites 1 1 to 1 n include a communication device 3 that connects to the network line 2, image synthesis cameras 4 a to 4 d, and a recording device 5 that records image data of the image synthesis cameras 4 a to 4 d. . The image composition cameras 4a to 4d may be collectively referred to simply as the camera 4 or the monitoring camera 4.

画像合成用カメラ4a〜4dは、広域の映像を取得するため、通常、図5に示すように、ビル1の屋上などの高さがある位置に設置される。
通信装置3は、画像合成用カメラ4a〜4dで撮影された画像を、広域のネットワーク網であるネットワーク回線2を介して、管理サーバ6に向けて送信する。また、ビル1内の記録装置5は、画像合成用カメラ4a〜4dで撮影された画像の画像データを記録するデータベースである。この記録装置5は通常、不揮発性メモリによって形成される。
The image synthesis cameras 4a to 4d are usually installed at a height such as the roof of the building 1 as shown in FIG.
The communication device 3 transmits images captured by the image composition cameras 4a to 4d to the management server 6 via the network line 2 which is a wide area network. The recording device 5 in the building 1 is a database that records image data of images taken by the image composition cameras 4a to 4d. The recording device 5 is usually formed by a nonvolatile memory.

管理サーバ6は、通信部7、制御部8、画像合成部9、遅延検知部10,遅延処理部11及びデータベース12から構成されている。通信部7は、広域ネットワーク網を形成するネットワーク回線2と接続され、ネットワーク回線2経由で、被監視サイト1からの画像データを管理サーバ6に取り込む。制御部8は、CPU(Computer Processing Unit)であり、通信部7、画像合成部9、遅延検知部10,遅延処理部11の処理を制御すると共に、データベース12への書き込みと読み出しの制御を行う。   The management server 6 includes a communication unit 7, a control unit 8, an image composition unit 9, a delay detection unit 10, a delay processing unit 11, and a database 12. The communication unit 7 is connected to a network line 2 forming a wide area network, and takes in image data from the monitored site 1 to the management server 6 via the network line 2. The control unit 8 is a CPU (Computer Processing Unit) that controls the processing of the communication unit 7, the image composition unit 9, the delay detection unit 10, and the delay processing unit 11, and controls writing and reading to the database 12. .

画像合成部9は、画像合成用カメラ4a〜4dで取得した画像データの中の複数の画像データを合成する。但し、後述する図6では、3つのカメラ4a、4b、4cの画像データとその合成した画像データを示し、カメラ4dで撮影した画像データは示されていない。
遅延検知部10は、画像合成用カメラ4a〜4dから送られてくる画像データに付加されている撮影した時刻を取得し、この時刻(現地画像取得時刻)と、画像合成部9により、画像合成用カメラ4a〜4dからのカメラ画像が合成された時刻(合成完了時刻)との差を検知する。
The image composition unit 9 synthesizes a plurality of image data in the image data acquired by the image composition cameras 4a to 4d. However, in FIG. 6 to be described later, image data of the three cameras 4a, 4b, and 4c and their combined image data are shown, and image data taken by the camera 4d is not shown.
The delay detection unit 10 acquires a shooting time attached to the image data sent from the image synthesis cameras 4 a to 4 d, and the image synthesis unit 9 performs image synthesis using this time (local image acquisition time). The difference from the time when the camera images from the cameras 4a to 4d are synthesized (composition completion time) is detected.

遅延処理部11は、遅延検知部10で検知された時刻差が所定時間(例えば5秒)以上であるかどうかを判定する。そして、遅延検知部10で検知された時刻差が所定時間(例えば5秒)以上であるときは、遅延処理部11で画像データのフレームレートを変更するか、あるいはフレームレートの変更を含む指令を被監視サイト1に送信する。   The delay processing unit 11 determines whether or not the time difference detected by the delay detection unit 10 is equal to or longer than a predetermined time (for example, 5 seconds). When the time difference detected by the delay detection unit 10 is equal to or longer than a predetermined time (for example, 5 seconds), the delay processing unit 11 changes the frame rate of the image data or issues a command including the change of the frame rate. Transmit to monitored site 1.

なお、複数のカメラ4の絵をつなぎ合わせる場合、重なり会う部分が存在する。この場合、重なりある部分の2点に着目し、例えば、座標と色が同じ値であるとき、制御部8は画像合成部9に合成画像を生成させる。このとき、重なり会った部分の画像については、どちらのカメラ4の画像を優先して表示するかを予め決めておけばよい。後述するが、被監視サイト1のビルを上空から取った写真などの標準となる画像と色データは、データベース12に予め登録されており、画像データの合成の際に用いられる。   Note that there are overlapping portions when pictures from a plurality of cameras 4 are connected. In this case, paying attention to two points in the overlapping portion, for example, when the coordinates and the color are the same value, the control unit 8 causes the image synthesis unit 9 to generate a synthesized image. At this time, with respect to the image of the overlapped portion, it may be determined in advance which image of the camera 4 is to be displayed preferentially. As will be described later, a standard image and color data such as a photograph of the building of the monitored site 1 taken from the sky are registered in advance in the database 12 and are used when the image data is synthesized.

また、制御部8は、複数のカメラ5からの画像データの中で、同じ値となる2点が重なりあう際の時間差によって、フレームレートを変更する。例えば、1fps(flame per second)の場合、1秒毎に1フレームの映像を表示するのであるが、ネットワーク要因などにより、2秒毎に表示する必要がある場合には、合成処理するフレームは、0.5fpsに変更されることになる。   In addition, the control unit 8 changes the frame rate according to the time difference when two points having the same value overlap in the image data from the plurality of cameras 5. For example, in the case of 1 fps (flame per second), one frame of video is displayed every second. However, when it is necessary to display every two seconds due to network factors, the frame to be synthesized is It will be changed to 0.5 fps.

また、管理サーバ6のデータベース12には、現地情報格納エリア12a、IPアドレス格納エリア12b、画像格納エリア12c、現地画像取得時間エリア12d及び合成完了時間エリア12eが設けられている。
現地情報格納エリア12aには、例えば、ビル名称や、エリア名称などの現地の被監視サイト1の情報が格納される。IPアドレス格納エリア12bには、被監視サイト1〜1を区別するためのIP(インターネット・プロトコル)アドレスが格納される。画像格納エリア12cには、被監視サイト1〜1に設置された画像合成用カメラ4a〜4dで撮影された画像データが格納される。
The database 12 of the management server 6 includes a local information storage area 12a, an IP address storage area 12b, an image storage area 12c, a local image acquisition time area 12d, and a composition completion time area 12e.
In the local information storage area 12a, for example, information on the site to be monitored 1 such as a building name and an area name is stored. The IP address storage area 12b stores IP (Internet Protocol) addresses for distinguishing the monitored sites 1 1 to 1 n . In the image storage area 12c, image data captured by the image composition cameras 4a to 4d installed in the monitored sites 1 1 to 1 n are stored.

また、現地画像取得時間エリア12dには、被監視サイト1から送られてきた画像合成用カメラ4a〜4dの画像データに付加されている画像取得時の時刻が格納される。そして、合成完了時間エリア12eには、画像合成部9において画像合成用カメラ4a〜4dの画像データの合成処理が完了した時刻が格納される。   The local image acquisition time area 12d stores the time at which the image is added to the image data of the image composition cameras 4a to 4d sent from the monitored site 1. In the composition completion time area 12e, the time at which the composition processing of the image data of the image composition cameras 4a to 4d is completed in the image composition unit 9 is stored.

監視サイト13〜13は、管理サーバ6で収集され、合成された画像データを監視することが可能な監視端末14〜14を備える。但し、図1では監視端末14のみが示されている。なお、監視端末14〜14を総称して述べるときは単に監視端末14ということにする。監視端末14は、図2にそのハードウェア構成を示すが、ネットワーク回線2と接続可能な通常のパソコンやタブレット等の通信端末から構成される。ここで監視端末14の数mと被監視サイト1の数nとは必ずしも一致させる必要はないが、m=nであってもかまわない。 The monitoring sites 13 1 to 13 m include monitoring terminals 14 1 to 14 m that can monitor the image data collected and combined by the management server 6. However, only the monitoring terminal 14 1 is shown in FIG. 1. Note that the monitoring terminals 14 1 to 14 m are simply referred to as the monitoring terminal 14 when collectively described. As shown in FIG. 2, the monitoring terminal 14 includes a communication terminal such as a normal personal computer or tablet that can be connected to the network line 2. Here, the number m of the monitoring terminals 14 and the number n of the monitored sites 1 are not necessarily matched, but m = n may be used.

[管理サーバ及び監視端末のハードウェア構成]
図2は、本例の映像監視システムに用いられる、管理サーバ6と監視端末14のハードウェア構成を示す図である。図2(A)は、管理サーバ6のハードウェア構成を示し、図2(B)は、監視端末14のハードウェア構成を示している。
[Hardware configuration of management server and monitoring terminal]
FIG. 2 is a diagram showing a hardware configuration of the management server 6 and the monitoring terminal 14 used in the video monitoring system of this example. FIG. 2A shows the hardware configuration of the management server 6, and FIG. 2B shows the hardware configuration of the monitoring terminal 14.

図2(A)に示すように、管理サーバ6は、バス20に接続されたCPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、不揮発性ストレージ24を備える。また、外部との通信を行うためのネットワークインタフェース25を備える。   As shown in FIG. 2A, the management server 6 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, and a nonvolatile storage 24 connected to the bus 20. Prepare. In addition, a network interface 25 for performing communication with the outside is provided.

CPU21は、本例の映像監視システムに関係する管理サーバ7の各部の機能を実現するソフトウェアのプログラムコードをROM21から読み出して実行する。RAM22には、管理サーバ6内で行われる演算処理の途中で発生した変数等が一時的に書き込まれる。CPU21がROM22に記録されているプログラムコードを実行することにより、管理サーバ6内の各種機能が実現される。   The CPU 21 reads out the program code of the software that realizes the function of each unit of the management server 7 related to the video monitoring system of this example from the ROM 21 and executes it. In the RAM 22, variables and the like generated during the arithmetic processing performed in the management server 6 are temporarily written. Various functions in the management server 6 are realized by the CPU 21 executing the program code recorded in the ROM 22.

不揮発性ストレージ24は、SSD(Solid State Drive)等の不揮発性のメモリで構成され、図1のデータベース12に対応するものである。ROM22と不揮発性ストレージ24には、CPU21が動作するために必要なプログラムやデータ等が、半永久的に記憶され、格納されている。ここでは、図1で説明した、現地情報格納エリア12a、IPアドレス格納エリア12b、画像格納エリア12c、現地画像取得時間エリア12d及び合成完了時間エリア12eの各記憶領域が不揮発性ストレージ24内に形成されている。   The nonvolatile storage 24 is composed of a nonvolatile memory such as an SSD (Solid State Drive) and corresponds to the database 12 of FIG. The ROM 22 and the non-volatile storage 24 store and store semi-permanent programs and data necessary for the CPU 21 to operate. Here, the storage areas of the local information storage area 12 a, the IP address storage area 12 b, the image storage area 12 c, the local image acquisition time area 12 d, and the composition completion time area 12 e described in FIG. 1 are formed in the nonvolatile storage 24. Has been.

ネットワークインタフェース25としては、例えば、NIC(Network Interface Card)等が用いられ、このネットワークインタフェース25を通して、被監視サイト1及び監視サイト13の監視端末14との通信が行われる。   As the network interface 25, for example, a NIC (Network Interface Card) or the like is used, and communication with the monitoring terminal 14 of the monitored site 1 and the monitoring site 13 is performed through the network interface 25.

図2(B)は、監視サイト13に設けられる監視端末14のハードウェア構成を示す。図2(B)に示すCPU31、ROM32、RAM33は、図2(A)に示すCPU21、ROM22、RAM23と同じなのでここでは説明を省略する。
図2(B)に示す監視端末14の不揮発性ストレージ34は、スマートフォン等が備えるSSD等の不揮発性のメモリと同じ構成とされ、CPU31が動作するために必要なプログラムやデータ等が、半永久的に記憶され、格納されている。
FIG. 2B shows a hardware configuration of the monitoring terminal 14 provided in the monitoring site 13. The CPU 31, ROM 32, and RAM 33 shown in FIG. 2B are the same as the CPU 21, ROM 22, and RAM 23 shown in FIG.
The non-volatile storage 34 of the monitoring terminal 14 shown in FIG. 2B has the same configuration as a non-volatile memory such as an SSD provided in a smartphone or the like, and programs and data necessary for the operation of the CPU 31 are semi-permanent. Is stored and stored.

監視端末14の通信部35は、ネットワーク回線2と接続するためのものである。
また、監視端末14には、入力部36と表示部37が設けられる。入力部36は、例えば後述する画面の合成や表示画面の分割等の操作を行うために用いられる入力アイコン等である。また、表示部37は、図6で後述する画像データを表示するために利用される。
The communication unit 35 of the monitoring terminal 14 is for connecting to the network line 2.
The monitoring terminal 14 is provided with an input unit 36 and a display unit 37. The input unit 36 is an input icon or the like used for performing operations such as screen composition and display screen division, which will be described later. The display unit 37 is used to display image data described later with reference to FIG.

本例の映像監視システムでは、管理サーバ6内で、全ての複数のカメラ4からの画像の合成処理を行うようにした。これに対して、現地情報格納エリア12a、IPアドレス格納エリア12b、画像格納エリア12c、現地画像取得時間エリア12d及び合成完了時間エリア12eの各記憶領域を、監視端末14の不揮発性ストレージ34に設け、管理サーバ6と同様な画像処理を監視端末14で行うようにしてもよい。この場合には、監視端末14が映像監視装置として機能することになる。   In the video monitoring system of this example, the image synthesizing process from all the plurality of cameras 4 is performed in the management server 6. On the other hand, the storage areas of the local information storage area 12a, the IP address storage area 12b, the image storage area 12c, the local image acquisition time area 12d, and the composition completion time area 12e are provided in the nonvolatile storage 34 of the monitoring terminal 14. The monitoring terminal 14 may perform image processing similar to that of the management server 6. In this case, the monitoring terminal 14 functions as a video monitoring device.

[画像データのデータ構造及びデータベースに記憶されるデータ構造]
図3は、画像合成用カメラ4a〜4dもしくは記録装置5から送られてくる画像データのデータ構造のテーブルを示す図である。また、図4は、管理サーバ6のデータベース12に格納される画像データのデータ構造のテーブルを示す図である。
[Data structure of image data and data structure stored in database]
FIG. 3 is a diagram showing a table of a data structure of image data sent from the image composition cameras 4a to 4d or the recording device 5. FIG. 4 is a diagram showing a table of the data structure of image data stored in the database 12 of the management server 6.

図3では、3つの画像合成用カメラ4a〜4cもしくは記録装置5から送られてくる画像データに関連して、画像データフィールド12c、IPアドレスフィールド12b及び現地時間フィールド12dが示されている。画像合成用カメラ4a〜4cで撮影された画像データは、図1に示す画像格納エリア12cに格納され、それぞれのカメラ4a〜4cのIPアドレスは、図1のデータベース12のIPアドレス格納エリア12bに格納される。また、カメラ4a〜4cで画像を取得したときの現地時間は図1の現地画像取得時間エリア12dに格納される。   In FIG. 3, an image data field 12c, an IP address field 12b, and a local time field 12d are shown in relation to the image data sent from the three image composition cameras 4a to 4c or the recording device 5. Image data photographed by the image synthesis cameras 4a to 4c is stored in the image storage area 12c shown in FIG. 1, and the IP addresses of the respective cameras 4a to 4c are stored in the IP address storage area 12b of the database 12 in FIG. Stored. The local time when images are acquired by the cameras 4a to 4c is stored in the local image acquisition time area 12d in FIG.

図3では、画像データフィールド、IPアドレスフィールド及び現地時間フィールドをそれぞれのデータが格納されるデータベース12の画像格納エリア12c、IPアドレス格納エリア12b、現地画像取得時間エリア12dのエリア名と同じ記号を用いて表記している。なお、図3には記載していないが、画像合成用カメラ4a〜4cもしくは記録装置5から送られてくる画像データには、これらの情報の他に、ビルの名称、住所等の現地情報格納エリア12aに格納される情報も含まれる。   In FIG. 3, the image data field, the IP address field, and the local time field have the same symbols as the area names of the image storage area 12c, the IP address storage area 12b, and the local image acquisition time area 12d of the database 12 in which the respective data are stored. It is written using. Although not shown in FIG. 3, the image data sent from the image synthesis cameras 4a to 4c or the recording device 5 stores local information such as the building name and address in addition to these pieces of information. Information stored in the area 12a is also included.

図3では、後述する画像合成に関係する画像合成用カメラ4a〜4cの3つのカメラ画像のみが被監視サイト1から管理サーバ6に送信されるものとして、カメラ4a画像、カメラ4b画像及びカメラ4c画像のみが示されている。画像合成用カメラ4d及びさらに多くのカメラが用いられる場合には、これらのカメラ画像を含めてよいことは勿論である。   In FIG. 3, it is assumed that only three camera images of image composition cameras 4a to 4c related to image composition to be described later are transmitted from the monitored site 1 to the management server 6, and the camera 4a image, the camera 4b image, and the camera 4c. Only the image is shown. Of course, when the image synthesizing camera 4d and a larger number of cameras are used, these camera images may be included.

図3の現地時間フィールド12dに示されるように、カメラ4a、カメラ4b及びカメラ4cは、1秒間に2フレームの画像を撮影して、カメラ画像を管理サーバ6に送信していることが分かる。例えばカメラ4a画像を見ると、現地時間12d「10:10:20:500」と12d「10:10:21:000」の2フレームが示されている。これは現地時間10時10分20秒から21秒までの1秒間に2フレームの画像が撮影され、送信されることを示している。同様にカメラ4b画像及びカメラ4c画像もカメラ4a画像と同じ時間に撮影され、1秒の間に2フレームが送信される(現地時間12d〜12d参照)。もちろん、全てのカメラ4a〜4cの時間は一致していなければならない。 As shown in the local time field 12d of FIG. 3, it can be seen that the camera 4a, the camera 4b, and the camera 4c take images of two frames per second and transmit the camera images to the management server 6. For example, when viewing the image of the camera 4a, two frames of local time 12d 1 “10: 10: 20: 500” and 12d 2 “10: 10: 21: 000” are shown. This indicates that two frames of images are taken and transmitted in one second from 10:10:20 local time to 21 seconds. Similarly, the camera 4b image and the camera 4c image are taken at the same time as the camera 4a image, and two frames are transmitted in one second (see local times 12d 4 to 12d 6 ). Of course, the times of all the cameras 4a to 4c must match.

図4は、画像合成用カメラ4aからの画像データを管理サーバ6内で処理した後のデータ構造のテーブル例を示す図である。
図4には、画像データフィールド12c、現地時間フィールド12bの他に、管理サーバ6における画像の合成処理が完了した時間を記す合成完了時間フィールド12eが示されている。この合成完了時間フィールド12eは、図1に示すデータベース12の合成完了時間エリア12eに相当するものであり、図4でも図1の合成完了時間エリア12eと同じ記号を用いている。なお、図4では、カメラ4a画像のみを示しているが、カメラ4b画像及びカメラ4c画像についても同様な処理が行われることは言うまでもない。
FIG. 4 is a diagram showing a table example of the data structure after the image data from the image composition camera 4a is processed in the management server 6.
In addition to the image data field 12c and the local time field 12b, FIG. 4 shows a composition completion time field 12e that describes the time when the image composition processing in the management server 6 is completed. The synthesis completion time field 12e corresponds to the synthesis completion time area 12e of the database 12 shown in FIG. 1, and the same symbols as those in the synthesis completion time area 12e of FIG. 1 are used in FIG. In FIG. 4, only the camera 4a image is shown, but it goes without saying that the same processing is performed for the camera 4b image and the camera 4c image.

図4に示されるように、現地時間「10:10:20:500」に撮影されたカメラ4a画像は、合成完了時間12eが「10:10:21:500」になっている。つまり、1秒後には画像合成が完了している。同様に現地時間「10:10:21:000」及び現地時間「10:10:21:500」に撮影されたカメラ4a画像も1秒後には画像合成が完了している(合成完了時間12e、12e参照)。 As shown in FIG. 4, the camera 4a image taken at the local time “10: 10: 20: 500” has a compositing completion time 12e 1 of “10: 10: 21: 500”. That is, image composition is completed after one second. Similarly, the image composition of the camera 4a images taken at the local time “10: 10: 21: 000” and the local time “10: 10: 21: 500” is also completed after one second (composition completion time 12e 2 12e 3 ).

しかし、現地時間「11:21:20:000」に撮影されたカメラ4a画像は、その合成完了時間12eが「11:21:25:000」になっており、画像の取得時刻から画像合成が完了する時刻までに5秒が経過している。
現地時間「11:21:20:500」に撮影されたカメラ4a画像に対応する合成完了時間12eは、空白になっている。この空白は、現地時間「11:21:20:500」に撮影されたカメラ4a画像が合成画像として用いられなかったこと、つまり間引かれたことを意味する。
However, the camera 4a image shot at the local time “11: 21: 20: 000” has its composition completion time 12e 4 “11: 21: 25: 000”, and the image composition is performed from the image acquisition time. 5 seconds have passed by the time when is completed.
The compositing completion time 12e 5 corresponding to the camera 4a image photographed at the local time “11: 21: 20: 500” is blank. This blank means that the camera 4a image taken at the local time “11: 21: 20: 500” was not used as a composite image, that is, thinned out.

最後に、現地時間「11:21:21:000」に撮影されたカメラ4a画像は、合成完了時間12eが、現地時間「11:21:25:200」になっており、カメラ画像の取得時間とその合成完了時間までの4.2秒になっている。このことは、その前に撮影されて送信されたカメラ4a画像が間引かれたことにより、画像取得から画像合成までの時間が5秒以内になったことを意味している。 Finally, the camera 4a image taken at local time “11: 21: 21: 000” has a compositing completion time 12e 6 of local time “11: 21: 25: 200”. It is 4.2 seconds until the time and the synthesis completion time. This means that the time from the image acquisition to the image synthesis is within 5 seconds because the camera 4a image photographed and transmitted before is thinned out.

[画像合成用カメラのビルにおける配置関係]
図5は、本例の映像監視システムにおいて、被監視サイト1であるビルに設置されている画像合成用カメラ4a〜4dの設置位置を示す図である。図3に示すテーブル例では、画像合成用カメラ4a〜4cの3台しか示されていないが、図5では4台のカメラ4a〜4dをビル1の屋上に配置する例を示している。図5に示すように、ビル1の屋上等に東西南北の四方を監視できるように4台のカメラ4を配置することで、ビル1内への不正侵入者等を広域的に監視することが可能である。
[Relationship of camera for image composition in building]
FIG. 5 is a diagram showing the installation positions of the image composition cameras 4a to 4d installed in the building which is the monitored site 1 in the video monitoring system of this example. In the example of the table shown in FIG. 3, only three image synthesis cameras 4 a to 4 c are shown, but FIG. 5 shows an example in which four cameras 4 a to 4 d are arranged on the roof of the building 1. As shown in FIG. 5, it is possible to monitor illegal intruders in the building 1 over a wide area by arranging four cameras 4 on the rooftop of the building 1 so that the four directions of east, west, south, and north can be monitored. Is possible.

[複数のカメラ画像とその合成処理]
図6A、B、Cは、本例の映像監視システムにおける監視サイト13に設置された監視端末14の監視画面のイメージ図である。
図6Aは、監視端末14の表示部37に複数のカメラ画像を分割して表示した例であり、図6B、図6Cは、これら複数のカメラ画像と合成した1画面を表示した例である。ここでは、3個の監視カメラ4a〜4cで撮影したカメラ画像を用いて画像合成を行う例を示している。なお、図6Bは、図の右側の道路に車が1台表示されており、画像合成が上手くいった成功例を示す。
[Multiple camera images and their composition]
6A, 6B, and 6C are image diagrams of a monitoring screen of the monitoring terminal 14 installed in the monitoring site 13 in the video monitoring system of this example.
6A is an example in which a plurality of camera images are divided and displayed on the display unit 37 of the monitoring terminal 14, and FIGS. 6B and 6C are examples in which one screen combined with the plurality of camera images is displayed. Here, an example is shown in which image composition is performed using camera images taken by three monitoring cameras 4a to 4c. FIG. 6B shows a successful example in which one car is displayed on the road on the right side of the figure and the image composition is successful.

これに対して、図6Cは、本来1台で表示されるべき車が2台表示されており、画像合成が上手くいかなかった例、つまり失敗例を示している。これはエリア16Cに示す車を含む動画像にエリア16A、16bの画像に比べて多くの遅延が生じ、フレームレートの変更が正確に為されなかった場合などに起こると考えられる。なお、図6Cでは、本来1台であるべき車が2台表示されてしまった例を示したが、逆に表示されるべき1台の車が表示されない場合もある。   On the other hand, FIG. 6C shows an example where two vehicles that should be displayed originally are displayed and image composition is not successful, that is, a failure example. This is considered to occur when, for example, a moving image including a car shown in the area 16C has more delay than the images in the areas 16A and 16b, and the frame rate has not been accurately changed. Although FIG. 6C shows an example in which two vehicles that should originally be one are displayed, there may be cases where one vehicle that should be displayed is not displayed.

本例の映像監視システムでは、被監視サイト1〜1は、画像合成用カメラ4a〜4cで撮影した画像を一旦記録装置5に保存する。そして、記録装置5に保存された画像データが、ネットワーク回線2を介して、管理サーバ6に送信される。管理サーバ6は、被監視サイト1〜1からの画像データを通信部7で受信し、制御部8の制御の下でデータベース12に格納する。 In the video monitoring system of this example, the monitored sites 1 1 to 1 n temporarily store images captured by the image composition cameras 4 a to 4 c in the recording device 5. Then, the image data stored in the recording device 5 is transmitted to the management server 6 via the network line 2. The management server 6 receives the image data from the monitored sites 1 1 to 1 n by the communication unit 7 and stores it in the database 12 under the control of the control unit 8.

画像合成部9は、被監視サイト1〜1からの画像データに応じて、制御部8の制御下で、複数の画像データの合成処理を行うが、図6B、Cに示されるように、その合成画像には、カメラ4a、4b、4cからの画像だけでなく、被監視サイトであるビル1の上面図等の画像データも用いられる。被監視サイト1であるビルの上面図等の画像の合成に必要とされる画像データは、画像格納エリア12cに予め登録されてものである。
また、制御部8は、遅延検知部10を起動し、受信した画像データに付加されている時刻を取得する。そして、遅延検知部10で取得した時刻と、画像合成部9で画像が合成されたときの時刻との差を比較する。
The image composition unit 9 performs composition processing of a plurality of image data under the control of the control unit 8 according to the image data from the monitored sites 1 1 to 1 n , as shown in FIGS. 6B and 6C. In addition to the images from the cameras 4a, 4b, and 4c, image data such as a top view of the building 1 that is the monitored site is used as the composite image. The image data required for the synthesis of the image such as the top view of the building that is the monitored site 1 is registered in advance in the image storage area 12c.
Further, the control unit 8 activates the delay detection unit 10 and acquires the time added to the received image data. Then, the difference between the time acquired by the delay detection unit 10 and the time when the image is combined by the image combining unit 9 is compared.

そして、遅延検知部10の比較結果において、画像を取得した時刻と画像合成が完了した時刻との間で、5秒以上の遅延が発生していると判断された場合には、遅延処理部11がフレームレートを変更する処理を行う。
その後、管理サーバ6は、ネットワーク回線2を経由して、監視サイト13の監視端末14にカメラ4a〜4cの画像データ及び合成処理された画像データを送信する。監視端末14は、これらの画像データに基づいて、後述する図6A〜図6Cに示す表示を行う。
When it is determined in the comparison result of the delay detection unit 10 that there is a delay of 5 seconds or more between the time when the image is acquired and the time when the image composition is completed, the delay processing unit 11 Performs processing to change the frame rate.
Thereafter, the management server 6 transmits the image data of the cameras 4a to 4c and the image data subjected to the synthesis process to the monitoring terminal 14 of the monitoring site 13 via the network line 2. The monitoring terminal 14 performs display shown in FIGS. 6A to 6C described later based on these image data.

図6Aに示すように、監視端末14の表示部37の表示画面は、合成前の複数のカメラを一画面で表示するため、複数のカメラ毎にエリア16A〜16Dに分割されている。ここでは、3つのカメラ4a、4b、4cの画像をエリア16A、16D、16Cに示している。エリア16Dには、表示するカメラ画像がないために、空白になっているが、例えば4番目のカメラ4dで取得した画像を表示することも可能である。   As shown in FIG. 6A, the display screen of the display unit 37 of the monitoring terminal 14 is divided into areas 16 </ b> A to 16 </ b> D for each of a plurality of cameras in order to display a plurality of cameras before synthesis on one screen. Here, images of three cameras 4a, 4b, and 4c are shown in areas 16A, 16D, and 16C. The area 16D is blank because there is no camera image to be displayed. However, for example, an image acquired by the fourth camera 4d can be displayed.

また図6Aには、画像合成釦16Eが設けられ、この画像合成釦16Eにタッチすることにより、合成用カメラ4a〜4cからの3つの画像が合成されて、図6B、図6Cに示すような全画面16F表示に切り替えられる。   In FIG. 6A, an image composition button 16E is provided, and by touching the image composition button 16E, three images from the composition cameras 4a to 4c are composed, as shown in FIGS. 6B and 6C. The display is switched to the full screen 16F display.

[本例の映像監視システムの動作手順]
図7は、本例の映像監視システムを構成する、被監視サイト1(ビル1)に設けられる記録装置5と、管理サーバ6と、監視サイト13における監視端末14との間の動作処理の手順を示すフローチャートである。
[Operation procedure of the video surveillance system of this example]
FIG. 7 shows a procedure of operation processing between the recording device 5 provided in the monitored site 1 (building 1), the management server 6 and the monitoring terminal 14 in the monitoring site 13 constituting the video monitoring system of this example. It is a flowchart which shows.

図7に示すように、監視端末14から管理サーバ6に対して、合成画像データの表示要求が送信される(ステップSA1)。管理サーバ6は、通信部7を介して監視端末14からの表示要求を受信する(ステップSB1)。
そして、管理サーバ6の制御部8は、ビル1内に設置されている画像合成用カメラ4a〜4cもしくは記録装置5に、画像データの送信要求を行う(ステップSB2)。
As shown in FIG. 7, a composite image data display request is transmitted from the monitoring terminal 14 to the management server 6 (step SA1). The management server 6 receives a display request from the monitoring terminal 14 via the communication unit 7 (step SB1).
Then, the control unit 8 of the management server 6 sends an image data transmission request to the image composition cameras 4a to 4c or the recording device 5 installed in the building 1 (step SB2).

被監視サイト1の通信装置3は、管理サーバ7からの送信要求を受信し(ステップSC1)、画像合成用カメラ4a〜4cに現地の画像データを取得させるか、あるいは予め取得されて記録装置5に記憶されている画像データを現地の画像データとして取得する(ステップSC2)。
そして、被監視サイト1(ビル1)内の通信装置3から、ネットワーク回線2を介して、現地の画像データが管理サーバ6に送信される(ステップSC3)。
The communication device 3 at the monitored site 1 receives the transmission request from the management server 7 (step SC1), and causes the image composition cameras 4a to 4c to acquire local image data or is acquired in advance and recorded by the recording device 5. Is acquired as local image data (step SC2).
Then, local image data is transmitted from the communication device 3 in the monitored site 1 (building 1) to the management server 6 via the network line 2 (step SC3).

管理サーバ6は、その通信部7で被監視サイト1から送信された画像データを受信する(ステップSB3)。管理サーバ6内の制御部8は、遅延検知部10を起動して、受信した画像データに付与されている現地画像取得時間をデータベース12内の現地画像取得時間エリア12dに格納する。続いて、制御部8は、受信した現地画像取得時間と、合成完了時間エリア12eに格納されている合成完了時間とを比較し、5秒以上の遅れがあるかどうかを判断する(ステップSB4)。   The management server 6 receives the image data transmitted from the monitored site 1 through the communication unit 7 (step SB3). The control unit 8 in the management server 6 activates the delay detection unit 10 and stores the local image acquisition time assigned to the received image data in the local image acquisition time area 12 d in the database 12. Subsequently, the control unit 8 compares the received local image acquisition time with the composition completion time stored in the composition completion time area 12e and determines whether there is a delay of 5 seconds or more (step SB4). .

ステップSB4にて5秒以上の遅れがあった場合には(ステップSB4のNO)、制御部8は、遅延処理部11を起動して、画像データのフレームレートを2fpsから1fpsへの変換処理を行う(ステップSB5)。つまり、連続する2フレームの画像データのうちの先行する1つのフレームの画像データを間引く。なお、ここで、画像合成用カメラ4a〜4cで取得している画像は、図3に示すように、1秒間に2フレームを取得している(つまりフレームレートが2fps)であるとした。   If there is a delay of 5 seconds or more in step SB4 (NO in step SB4), the control unit 8 activates the delay processing unit 11 to convert the frame rate of the image data from 2 fps to 1 fps. Perform (step SB5). That is, the image data of one preceding frame out of two consecutive frames of image data is thinned out. Here, it is assumed that the images acquired by the image composition cameras 4a to 4c acquire 2 frames per second (that is, the frame rate is 2 fps) as shown in FIG.

次に、制御部8は、画像合成部9を起動し、ステップSB5で変更されたフレームレートで、ステップSB4にて5秒以上の遅れがあった場合の画像の合成処理を行う(ステップSB6)。その後、制御部8は、通信部7、ネットワーク回線2を経由して、合成された画像データを監視サイト13の監視端末14へ送信する(ステップSB7)。
また、制御部8は、画像の合成処理が完了した時刻を合成完了時間エリア13eに格納する(ステップSB8)。監視サイト13の監視端末14は、管理サーバ6から送られた画像合成データを受信し(ステップSA2)、この合成した画像を、監視端末14の表示部37の画面16Fに表示する(ステップSA3)。
Next, the control unit 8 activates the image composition unit 9, and performs image composition processing when there is a delay of 5 seconds or more in step SB4 at the frame rate changed in step SB5 (step SB6). . Thereafter, the control unit 8 transmits the synthesized image data to the monitoring terminal 14 of the monitoring site 13 via the communication unit 7 and the network line 2 (step SB7).
Further, the control unit 8 stores the time when the image composition processing is completed in the composition completion time area 13e (step SB8). The monitoring terminal 14 at the monitoring site 13 receives the image composition data sent from the management server 6 (step SA2), and displays the synthesized image on the screen 16F of the display unit 37 of the monitoring terminal 14 (step SA3). .

また、ステップSB4において、5秒以上の遅れがないと判断された場合(ステップSB4のYES)には、制御部8は、遅延処理部11を起動することなく、つまりステップSB5の1フレーム分の画像データを間引くことなく、ステップSB6の画像合成処理を行う。   When it is determined in step SB4 that there is no delay of 5 seconds or more (YES in step SB4), the control unit 8 does not activate the delay processing unit 11, that is, one frame of step SB5. The image composition processing in step SB6 is performed without thinning out the image data.

本例の映像監視システムでは、遅延処理に伴うフレームレート変更を2fpsから1fpsに変換する処理のみを記載したが、フレームレートを1fpsから0.5fpsなどに変換するなどのフレームレートの変換処理を行うようにしてもよい。   In the video monitoring system of this example, only the process of converting the frame rate change accompanying the delay process from 2 fps to 1 fps is described, but the frame rate conversion process such as converting the frame rate from 1 fps to 0.5 fps, etc. is performed. You may do it.

以上説明した本例の映像監視システムによれば、管理サーバ6の遅延検知部10と遅延処理部11の作用により、複数のカメラ画像の最適な合成が可能となる。すなわち、複数のカメラ画像を合成する際の画像合成完了時刻と現地の撮影時刻との間に時間差があっても、フレームレートを変更することで複数のカメラ画像の最適な合成のリアルタイム性を確保することができる。そして、監視サイトで不正侵入者の追跡や、詳細な情報の取得を迅速に行うことができるため、設備などの異常状態がどこまで広がっているのかを迅速に把握することが可能となる。   According to the video monitoring system of the present example described above, it is possible to optimally combine a plurality of camera images by the action of the delay detection unit 10 and the delay processing unit 11 of the management server 6. In other words, even if there is a time difference between the image composition completion time and the local shooting time when combining multiple camera images, the real-time property of optimal combining of multiple camera images is ensured by changing the frame rate. can do. In addition, since it is possible to quickly track unauthorized intruders and acquire detailed information at the monitoring site, it is possible to quickly grasp how far abnormal conditions such as equipment have spread.

また、本例の映像監視システムでは、管理サーバ6を設け、画像合成、遅延検知、及び遅延処理を行っているが、管理サーバ6を用いることなく、監視サイト13の監視端末14の内部でこれらの処理を行うことも可能である。   In the video monitoring system of this example, the management server 6 is provided to perform image composition, delay detection, and delay processing. However, these are not used in the monitoring terminal 14 of the monitoring site 13 without using the management server 6. It is also possible to perform the process.

[本発明の第2の実施形態例の説明]
図8は、本発明の第2の実施形態例における監視サイト13、管理サーバ6及び被監視サイト1(ビル)間での通信動作を説明するためのフローチャートである。
この第2の実施形態例は、監視サイト13の監視端末14から、ネットワーク回線2を介して、管理サーバ6から被監視サイト1に対する画像データの送信要求の中に、フレームレートの変更依頼が含まれている場合の例であり、このような場合には、被監視サイト1においてフレームレートの変更が行われる。
[Explanation of Second Embodiment of the Present Invention]
FIG. 8 is a flowchart for explaining a communication operation among the monitoring site 13, the management server 6, and the monitored site 1 (building) in the second embodiment of the present invention.
In the second embodiment, a request for changing the frame rate is included in the image data transmission request from the management server 6 to the monitored site 1 from the monitoring terminal 14 of the monitoring site 13 via the network line 2. In such a case, the frame rate is changed at the monitored site 1.

第2の実施形態例では、ます、監視サイト13の監視端末14から、ネットワーク回線2を介して、管理サーバ6に対して、合成画像データ表示の要求が送信される(ステップSA1)。管理サーバ6の制御部8は、監視端末14から合成画像データ表示要求を受信し(ステップSD1)、被監視サイト1への画像データの要求データを作成する(ステップSD2)。このステップSD2における要求データの作成は、図7のステップSB4と同様の処理によって行われるが、このとき、管理サーバ6からの要求の中に、フレームレートの変更依頼を含めるようにしている。   In the second embodiment, a composite image data display request is transmitted from the monitoring terminal 14 of the monitoring site 13 to the management server 6 via the network line 2 (step SA1). The control unit 8 of the management server 6 receives the composite image data display request from the monitoring terminal 14 (step SD1), and creates image data request data for the monitored site 1 (step SD2). The creation of the request data in step SD2 is performed by the same processing as in step SB4 of FIG. 7, but at this time, a request for changing the frame rate is included in the request from the management server 6.

すなわち、ステップSD2では、管理サーバ6のデータベース12の現地画像取得時間エリア12dに保存されている現地画像の取得時刻と、合成完了時間エリア12eに保存されている画像の合成が完了した時刻とを比較する。そして、ステップSD2で、5秒以上の遅れがあるかどうかを判断した後に、被監視サイト1に送信する要求データが作成される。現地画像の取得時刻と画像合成の完了時刻に5秒以上の遅れがある場合には、管理サーバ6は、フレームレートを変更する依頼を要求データに含めて、被監視サイト1に送信する(ステップSD3)。   That is, in step SD2, the acquisition time of the local image stored in the local image acquisition time area 12d of the database 12 of the management server 6 and the time when the synthesis of the image stored in the synthesis completion time area 12e is completed. Compare. Then, in step SD2, after determining whether there is a delay of 5 seconds or more, request data to be transmitted to the monitored site 1 is created. If there is a delay of 5 seconds or more between the local image acquisition time and the image composition completion time, the management server 6 includes a request to change the frame rate in the request data and transmits the request data to the monitored site 1 (step). SD3).

被監視サイト1では、管理サーバ6からの要求データを受信し(ステップSF1)、画像合成用カメラ4a〜4cもしくは記録装置5から対象となる現地の画像データを取得する(ステップSF2)。
そして、ステップSD2によって作成された要求データに従い、要求データ内にフレームレートの変更依頼が含まれているか否かを判断する(ステップSF3)。ステップSF3で、要求データ内にフレームレートの変更依頼が含まれていると判定された場合には(ステップSF3のNO)、被監視サイト1内で、1秒間に2フレームを送信するフレームレート2fpsから1秒間に1フレームを送信するフレームレート1fpsに、フレームレートを変更する(ステップSF4)。
The monitored site 1 receives the request data from the management server 6 (step SF1), and acquires target local image data from the image synthesis cameras 4a to 4c or the recording device 5 (step SF2).
Then, according to the request data created in step SD2, it is determined whether or not a request for changing the frame rate is included in the request data (step SF3). If it is determined in step SF3 that a request for changing the frame rate is included in the request data (NO in step SF3), a frame rate of 2 fps for transmitting 2 frames per second in the monitored site 1 The frame rate is changed to a frame rate of 1 fps at which 1 frame is transmitted per second (step SF4).

一方、ステップSF3で、要求データ内にフレームレートの変更依頼が含まれていないと判定された場合には(ステップSF3のYES)、被監視サイト1は、フレームレートを変更することなく、通信装置3からネットワーク回線2を経由して管理サーバ6に画像データを送信する(ステップSF5)。
管理サーバ6は、被監視サイト1から画像データを受信し(ステップSD4)、制御部8は、画像合成部9を起動して、画像の合成処理を行う(ステップSD5)。そして、管理サーバ6は監視サイト13の監視端末14へ画像合成データを送信する(ステップSD6)。
On the other hand, when it is determined in step SF3 that the request data does not include a frame rate change request (YES in step SF3), the monitored site 1 does not change the frame rate, and the communication device 3 transmits the image data to the management server 6 via the network line 2 (step SF5).
The management server 6 receives the image data from the monitored site 1 (step SD4), and the control unit 8 activates the image composition unit 9 to perform image composition processing (step SD5). Then, the management server 6 transmits the image composition data to the monitoring terminal 14 at the monitoring site 13 (step SD6).

制御部8は、画像の合成処理が完了した時刻を合成完了時間エリア12eに格納する(ステップSD7)。監視サイト13の監視端末14は、図7の第1の実施形態と同様に、画像合成データを受信し(ステップSA2)、各画像合成用カメラ4a〜4cの画像を監視端末14の画面16A〜Cに分割表示するとともに、画像合成データを監視端末14の画面16Fに表示する(ステップSA3)。
また、上述した第2の実施形態例によれば、被監視サイト1側でフレームレートを変更する(画像を間引く)ことができるので、被監視サイト1側から管理サーバ6へ送信する画像を減らすことができる。
The control unit 8 stores the time when the image composition processing is completed in the composition completion time area 12e (step SD7). The monitoring terminal 14 of the monitoring site 13 receives the image composition data (step SA2), and displays the images of the image composition cameras 4a to 4c on the screen 16A of the monitoring terminal 14 as in the first embodiment of FIG. In addition to the division display on C, the image composition data is displayed on the screen 16F of the monitoring terminal 14 (step SA3).
In addition, according to the second embodiment described above, the frame rate can be changed (thinning out images) on the monitored site 1 side, so the number of images transmitted from the monitored site 1 side to the management server 6 is reduced. be able to.

[変形例]
また、変形例として、管理サーバ6の遅延検知部10で、画像を取得した現地時刻と複数のカメラ画像の合成完了時刻とに、時間遅延が発生していると判断された場合に、管理サーバ6のリソース(CPU、メモリ)を一時的に増加させ、遅延が解消されたと判断された場合に、元のリソースに割当てることも考えられる。
[Modification]
As a modification, when the delay detection unit 10 of the management server 6 determines that a time delay has occurred between the local time when the image is acquired and the combination completion time of the plurality of camera images, the management server 6 6 resources (CPU, memory) may be temporarily increased, and when it is determined that the delay has been eliminated, it may be possible to allocate the original resource.

上述した各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現することもできる。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like can be realized in hardware by designing a part or all of them, for example, with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
なお、本発明は、明細書または図面に開示した実施形態例に限定されるものではなく、特許請求の範囲に記載した内容を逸脱しない限りにおいて、他の応用例及び変形例を含むことは勿論である。
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
It should be noted that the present invention is not limited to the embodiments disclosed in the specification or the drawings, and of course includes other applications and modifications as long as they do not depart from the contents described in the claims. It is.

〜1・・・被監視サイト(ビル)、2・・・ネットワーク回線、3・・・通信装置、4a〜4d・・・画像合成用カメラ、5・・・記録装置、6・・・管理サーバ、7・・・通信部、8・・・制御部、9・・・画像合成部、10・・・遅延検知部、11・・・遅延処理部、12・・・データベース、12a・・・ 現地情報格納エリア、12b・・・IPアドレス格納エリア、12c・・・画像格納エリア、12d・・・現地画像取得時間エリア、12e・・・合成完了時間エリア、13〜13・・・監視サイト、14・・・監視端末、16A〜16D・・・分割表示領域、16E、16G・・・画面切替釦、16F・・・合成画面表示領域 1 1 to 1 n: Site to be monitored (building), 2 ... network line, 3 ... communication device, 4a to 4d ... camera for image composition, 5 ... recording device, 6 ... Management server, 7 communication unit, 8 control unit, 9 image compositing unit, 10 delay detection unit, 11 delay processing unit, 12 database, 12a .. Local information storage area, 12b ... IP address storage area, 12c ... Image storage area, 12d ... Local image acquisition time area, 12e ... Composition completion time area, 13 1 to 13 m Monitoring site, 14 ... monitoring terminal, 16A to 16D ... divided display area, 16E, 16G ... screen switching button, 16F ... composite screen display area

Claims (5)

被監視サイトと、監視端末を備える監視サイトと、管理サーバとをネットワーク回線で接続した映像監視システムにおいて、
前記被監視サイトは、
複数のカメラと、前記複数のカメラの画像を記録する記録装置と、前記記録装置で記録した画像または前記カメラからの画像に撮影した時刻を付加して、ネットワーク回線に送信する通信装置と、を備え、
前記管理サーバは、
前記被監視サイトから送信された画像を受信するとともに、前記管理サーバで処理された画像をネットワーク回線に送信する通信部と、
前記被監視サイトの前記複数のカメラからの画像データを合成する画像合成部と、
前記被監視サイトから送られる画像データに付加されている時刻と、前記画像合成部で画像合成された時刻との時間差を検知する遅延検知部と、
前記遅延検知部で検知された前記時間差が所定時間を超えているか否かを判定する遅延処理部と、 前記画像合成部、前記遅延検知部及び前記遅延処理部の処理に関わる制御を行う制御部と、を備え、
前記監視サイトの前記監視端末は、
前記被監視サイトから送られる複数の画像データを1画面上に表示する分割表示と、前記画像合成部で合成された合成画像を1画面上に表示する拡大表示を切り換えて表示する表示部と、を備え、
前記管理サーバの前記遅延処理部において、前記被監視サイトから送られる画像データに付加されている時刻と、前記画像合成部で画像合成された時刻との時間差が所定時間以上であると判定された場合に、画像データを送信するフレームレートを変更する、
映像監視システム。
In a video monitoring system in which a monitored site, a monitoring site including a monitoring terminal, and a management server are connected by a network line,
The monitored site is
A plurality of cameras, a recording device that records the images of the plurality of cameras, and a communication device that adds a time of shooting to an image recorded by the recording device or an image from the camera and transmits the image to a network line. Prepared,
The management server
A communication unit that receives an image transmitted from the monitored site and transmits an image processed by the management server to a network line;
An image synthesis unit that synthesizes image data from the plurality of cameras of the monitored site;
A delay detection unit that detects a time difference between the time added to the image data sent from the monitored site and the time of image synthesis by the image synthesis unit;
A delay processing unit that determines whether or not the time difference detected by the delay detection unit exceeds a predetermined time; and a control unit that performs control related to processing of the image synthesis unit, the delay detection unit, and the delay processing unit And comprising
The monitoring terminal of the monitoring site is
A display unit for switching and displaying divided display for displaying a plurality of image data sent from the monitored site on one screen, and an enlarged display for displaying the composite image synthesized by the image composition unit on one screen; With
In the delay processing unit of the management server, it is determined that the time difference between the time added to the image data sent from the monitored site and the time when the image is synthesized by the image synthesizing unit is a predetermined time or more. Change the frame rate to send image data,
Video surveillance system.
前記画像データのフレームレートの変更は、前記管理サーバの前記遅延処理部で所定時間以上である場合に、前記管理サーバの前記遅延処理部において行われる、
請求項1に記載の映像監視システム。
The change of the frame rate of the image data is performed in the delay processing unit of the management server when the delay processing unit of the management server is a predetermined time or longer.
The video surveillance system according to claim 1.
前記画像データのフレームレートの変更は、前記管理サーバの前記遅延処理部で所定時間以上であると判定された場合に、前記管理サーバから前記被監視サイトにフレームレート変更を含む指令を送り、前記被監視サイトにおいて、前記フレームレートの変更指令に基づいて行われる、
請求項1に記載の映像監視システム。
When the change of the frame rate of the image data is determined by the delay processing unit of the management server to be a predetermined time or more, the management server sends a command including the change of the frame rate to the monitored site, At the monitored site, based on the frame rate change command,
The video surveillance system according to claim 1.
前記管理サーバは、不揮発性ストレージからなるデータベースを備え、
前記データベースは、
現地である前記被監視サイトに関するエリアの名称を格納する現地情報格納エリアと、
前記被監視サイトを区別するためのIPアドレスを格納するIPアドレス格納エリアと、
前記被監視サイトに設置された前記複数のカメラで撮影された画像データを格納する画像格納エリアと、
前記被監視サイトに設置された前記複数のカメラによって、前記画像データが取得された時刻を格納する現地画像取得時間エリアと、
前記画像合成部における処理が完了した時刻を格納する合成完了時間エリアと、を有する
請求項1〜3のいずれか一項に記載の映像監視システム。
The management server includes a database composed of nonvolatile storage,
The database is
A local information storage area for storing the name of the area related to the monitored site that is local;
An IP address storage area for storing an IP address for distinguishing the monitored site;
An image storage area for storing image data captured by the plurality of cameras installed at the monitored site;
A local image acquisition time area for storing the time when the image data was acquired by the plurality of cameras installed in the monitored site;
The video monitoring system according to any one of claims 1 to 3, further comprising a composition completion time area for storing a time at which the processing in the image composition unit is completed.
複数のカメラにより撮影された被監視サイトからの映像データを1画面に合成して表示する映像監視装置において、
前記被監視サイトからの複数の画像データ及び前記画像データが撮影された時刻を受信する通信部と、
前記複数のカメラからの画像データを合成する画像合成部と、
前記被監視サイトから送られる画像データが撮影された時刻と、前記画像合成部で画像合成された時刻との時間差を検知する遅延検知部と、
前記遅延検知部で検知された時間差が所定時間以上になった場合に、前記画像データのフレームレートを変更する遅延処理部と、
前記画像合成部、前記遅延検知部及び前記遅延処理部の処理に関わる制御を行う制御部と、
前記被監視サイトから送られる画像データの複数画面のそれぞれの画面の分割表示、または前記画像合成部で合成された合成画像の拡大表示を切り換えて表示する表示部と、を備える、
映像監視装置。
In a video monitoring device that displays video data from monitored sites captured by multiple cameras on a single screen,
A communication unit that receives a plurality of image data from the monitored site and a time when the image data was captured;
An image combining unit that combines image data from the plurality of cameras;
A delay detection unit that detects a time difference between the time when the image data sent from the monitored site was captured and the time when the image was synthesized by the image synthesis unit;
A delay processing unit that changes a frame rate of the image data when a time difference detected by the delay detection unit is a predetermined time or more;
A control unit that performs control related to processing of the image synthesis unit, the delay detection unit, and the delay processing unit;
A display unit that switches and displays a divided display of each of a plurality of screens of image data sent from the monitored site, or an enlarged display of a combined image combined by the image combining unit,
Video surveillance device.
JP2017110127A 2017-06-02 2017-06-02 Video monitoring system and video monitoring device Active JP6725454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017110127A JP6725454B2 (en) 2017-06-02 2017-06-02 Video monitoring system and video monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110127A JP6725454B2 (en) 2017-06-02 2017-06-02 Video monitoring system and video monitoring device

Publications (3)

Publication Number Publication Date
JP2018207279A true JP2018207279A (en) 2018-12-27
JP2018207279A5 JP2018207279A5 (en) 2019-09-12
JP6725454B2 JP6725454B2 (en) 2020-07-22

Family

ID=64958344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110127A Active JP6725454B2 (en) 2017-06-02 2017-06-02 Video monitoring system and video monitoring device

Country Status (1)

Country Link
JP (1) JP6725454B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111208965A (en) * 2020-01-15 2020-05-29 宁波Gqy视讯股份有限公司 Splicing display system and display method thereof
CN113824902A (en) * 2021-09-30 2021-12-21 杭州海康汽车软件有限公司 Method, device, system, equipment and medium for determining time delay of infrared camera system
WO2022176109A1 (en) * 2021-02-18 2022-08-25 日本電信電話株式会社 Video composition apparatus and video composition method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034250A (en) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp Device and method to display video and recording medium which records program for displaying video
JP2005328128A (en) * 2004-05-12 2005-11-24 Matsushita Electric Ind Co Ltd Synchronous regeneration device
JP2008141608A (en) * 2006-12-04 2008-06-19 Canon Inc Image display processing apparatus, and processing method thereof
JP2012129853A (en) * 2010-12-16 2012-07-05 Mitsubishi Electric Corp Synchronous display device for a plurality of videos and synchronous display method thereof
JP2013148973A (en) * 2012-01-17 2013-08-01 Hitachi Building Systems Co Ltd Video monitoring system
WO2016031720A1 (en) * 2014-08-25 2016-03-03 株式会社日立国際電気 Monitoring camera system
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017092715A (en) * 2015-11-10 2017-05-25 株式会社日立ビルシステム Video monitoring system
JP2018037734A (en) * 2016-08-29 2018-03-08 株式会社Nexpoint Monitoring camera system, and moving image browsing method and moving image coupling method for monitoring camera system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034250A (en) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp Device and method to display video and recording medium which records program for displaying video
JP2005328128A (en) * 2004-05-12 2005-11-24 Matsushita Electric Ind Co Ltd Synchronous regeneration device
JP2008141608A (en) * 2006-12-04 2008-06-19 Canon Inc Image display processing apparatus, and processing method thereof
JP2012129853A (en) * 2010-12-16 2012-07-05 Mitsubishi Electric Corp Synchronous display device for a plurality of videos and synchronous display method thereof
JP2013148973A (en) * 2012-01-17 2013-08-01 Hitachi Building Systems Co Ltd Video monitoring system
WO2016031720A1 (en) * 2014-08-25 2016-03-03 株式会社日立国際電気 Monitoring camera system
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017092715A (en) * 2015-11-10 2017-05-25 株式会社日立ビルシステム Video monitoring system
JP2018037734A (en) * 2016-08-29 2018-03-08 株式会社Nexpoint Monitoring camera system, and moving image browsing method and moving image coupling method for monitoring camera system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111208965A (en) * 2020-01-15 2020-05-29 宁波Gqy视讯股份有限公司 Splicing display system and display method thereof
CN111208965B (en) * 2020-01-15 2023-09-22 宁波Gqy视讯股份有限公司 Spliced display system and display method thereof
WO2022176109A1 (en) * 2021-02-18 2022-08-25 日本電信電話株式会社 Video composition apparatus and video composition method
JP7480908B2 (en) 2021-02-18 2024-05-10 日本電信電話株式会社 Image synthesizing device and image synthesizing method
CN113824902A (en) * 2021-09-30 2021-12-21 杭州海康汽车软件有限公司 Method, device, system, equipment and medium for determining time delay of infrared camera system

Also Published As

Publication number Publication date
JP6725454B2 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
US20050231589A1 (en) Panoramic photographing monitoring and tracking system and method
JP6725454B2 (en) Video monitoring system and video monitoring device
JP2008042315A (en) Camera controller and camera control system
US10250409B2 (en) Reconfigurable data distribution system
CN107846623B (en) Video linkage method and system
KR20090064675A (en) Visual surveillance camera and visual surveillance method using collaboration of cameras
KR101990368B1 (en) Surveillance camera and surveillance system
JP4354391B2 (en) Wireless communication system
KR20100132739A (en) Monitoring system using dual camera and method thereof
US20180213185A1 (en) Method and system for monitoring a scene based on a panoramic view
JP6875255B2 (en) Video monitoring system and video monitoring device
CN108234937B (en) Video monitoring system and monitoring video display method
KR20130096439A (en) Remote monitoring and controlling system of semiconductor equipment
KR102165276B1 (en) Integrated server for remote controlling and method thereof
KR101731592B1 (en) Multiple video monitoring system for standalone type
JP2019087936A5 (en)
JP2001245284A (en) Method and system for supervising intruding object
KR101250956B1 (en) An automatic system for monitoring
KR101204081B1 (en) Surveillance system
KR101052541B1 (en) Marine alarm system and monitoring method
US20200169714A1 (en) 3d visual intelligent simulation monitoring system and simulation display method thereof
KR200492429Y1 (en) Integrated server for remote controlling
JP4987757B2 (en) Video display device
KR102346502B1 (en) Multi-section emergency bell device with self-diagnosis function and control method
JP2004023505A (en) Centralized monitoring system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150