JP2017108252A - Video provision system, video provision method, terminal device, information provision method and computer program - Google Patents

Video provision system, video provision method, terminal device, information provision method and computer program Download PDF

Info

Publication number
JP2017108252A
JP2017108252A JP2015239681A JP2015239681A JP2017108252A JP 2017108252 A JP2017108252 A JP 2017108252A JP 2015239681 A JP2015239681 A JP 2015239681A JP 2015239681 A JP2015239681 A JP 2015239681A JP 2017108252 A JP2017108252 A JP 2017108252A
Authority
JP
Japan
Prior art keywords
video
information
sensor
terminal device
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015239681A
Other languages
Japanese (ja)
Other versions
JP6671164B2 (en
Inventor
悠希 中原
Yuki Nakahara
悠希 中原
大我 吉田
Taiga Yoshida
大我 吉田
珠紅 中澤
Shukou Nakazawa
珠紅 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2015239681A priority Critical patent/JP6671164B2/en
Publication of JP2017108252A publication Critical patent/JP2017108252A/en
Application granted granted Critical
Publication of JP6671164B2 publication Critical patent/JP6671164B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To transmit much more video images captured by imaging apparatuses in a system that communicates video images captured by imaging apparatuses over a closed network.SOLUTION: A sensor 200 transmits sensor information to a monitoring system 400 over a third network 700. Upon receiving sensor information, a sensor information acquisition part 406 of the monitoring system outputs the sensor information to a control part 405, and the control part transmits the sensor information to a terminal device 100 over a first network 500. An imaging apparatus 300 forms a closed network over a fourth network 800 in response to a request from the monitoring system and transmits video data to the monitoring system over the closed network. A video relay part 409 receives video data from the imaging apparatus over the closed network and transmits the video data to the terminal device 100 over a second network 600. The monitoring system forms the closed network only in the timing of transmitting video data to the terminal device over the fourth network, and opens the closed network when the transmission of the video data is completed.SELECTED DRAWING: Figure 1

Description

本発明は、センサの出力と撮像された映像とを端末装置に表示させる技術に関する。   The present invention relates to a technology for displaying a sensor output and a captured image on a terminal device.

近年、IoT(Internet Of Things)が注目されている。IoTでは、多くのセンサがネットワークに接続され、装置に関する情報を遠隔地で取得することが可能となる。センサから得られる数値に関する情報のみでは状況の把握が困難であるため、撮像装置によって撮像された映像もネットワークを介して取得されることがある。このような映像は第三者に閲覧されることは望ましくないことがある。そのような場合、映像を伝送する際にセキュリティの維持のために閉域網をオーバーレイネットワークで構築する技術が適用されることがある。オーバーレイネットワークを用いた技術として、例えば特許文献1に開示された技術が提案されている。   In recent years, IoT (Internet Of Things) has attracted attention. In IoT, many sensors are connected to a network, and information about the device can be acquired at a remote location. Since it is difficult to grasp the situation with only the information about the numerical values obtained from the sensor, the video imaged by the imaging device may be acquired via the network. Such video may not be viewed by a third party. In such a case, a technique for constructing a closed network with an overlay network may be applied to maintain security when transmitting video. As a technique using an overlay network, for example, a technique disclosed in Patent Document 1 has been proposed.

特開2012−114649号公報JP 2012-114649 A

撮像装置の台数が多い場合には、多数の閉域網が形成されることとなる。しかしながら、サーバ装置が終端可能な閉域網の数には、サーバの性能に依存した上限がある。そのため、多数の撮像装置が接続されたシステムを構築することができない場合があった。   When the number of imaging devices is large, a large number of closed networks are formed. However, the number of closed networks that can be terminated by the server device has an upper limit that depends on the performance of the server. For this reason, there is a case where a system in which a large number of imaging devices are connected cannot be constructed.

上記事情に鑑み、本発明は、撮像装置によって撮像された映像を閉域網で通信するシステムにおいて、より多くの撮像装置による映像を伝送可能にする技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique that enables transmission of images from more imaging devices in a system that communicates images captured by an imaging device via a closed network.

本発明の一態様は、撮像装置によって撮像された映像のデータに対する要求が端末装置から受信された場合に、前記映像のデータを前記端末装置に中継する映像中継部と前記撮像装置との間の経路を含む通信経路において閉域網を構築し、前記映像のデータの中継が終了した後に前記閉域網を開放する通信制御部、を備える映像提供システムである。   According to one aspect of the present invention, when a request for video data captured by an imaging device is received from a terminal device, the video relay unit relays the video data to the terminal device, and the imaging device A video providing system including a communication control unit that constructs a closed network in a communication path including a path and opens the closed network after relaying of the video data is completed.

本発明の一態様は、上記の映像提供システムであって、前記撮像装置によって撮像される映像に関連する事象を検知するセンサから送信される情報であって、前記事象の検知の結果を表す検知情報を含む情報であるセンサ情報を第一ネットワークを介して前記端末装置に送信する制御部と、前記映像中継部と、をさらに備え、前記映像中継部は、前記第一ネットワークとは異なる第二ネットワークを介して前記映像のデータを前記端末装置に中継する。   One aspect of the present invention is the video providing system described above, which is information transmitted from a sensor that detects an event related to a video captured by the imaging device, and represents a result of detection of the event. A control unit that transmits sensor information, which is information including detection information, to the terminal device via a first network; and the video relay unit, wherein the video relay unit is different from the first network. The video data is relayed to the terminal device via a second network.

本発明の一態様は、上記の映像提供システムであって、前記撮像装置によって撮像される映像に関連する事象を検知するセンサから送信される情報であって、前記事象の検知の結果を表す検知情報を含む情報であるセンサ情報を第三ネットワークを介して前記センサから受信するセンサ情報取得部をさらに備え、前記映像中継部は、前記撮像装置から前記第三ネットワークとは異なる第四ネットワークを介して前記映像のデータを受信する。   One aspect of the present invention is the video providing system described above, which is information transmitted from a sensor that detects an event related to a video captured by the imaging device, and represents a result of detection of the event. A sensor information acquisition unit configured to receive sensor information including detection information from the sensor via a third network; and the video relay unit includes a fourth network different from the third network from the imaging device. The video data is received through the network.

本発明の一態様は、撮像装置によって撮像された映像のデータに対する要求が端末装置から受信された場合に、前記映像のデータを前記端末装置へ中継する映像中継部と前記撮像装置との間の経路を含む通信経路において閉域網を構築するステップと、前記映像のデータの中継が終了した後に前記閉域網を開放するステップと、を有する映像提供方法である。   According to one aspect of the present invention, when a request for video data captured by an imaging device is received from a terminal device, the video relay unit relays the video data to the terminal device and the imaging device. A video providing method comprising the steps of: constructing a closed network in a communication path including a path; and releasing the closed network after relaying of the video data is completed.

本発明の一態様は、上記の映像提供システムとしてコンピュータを動作させるためのコンピュータプログラムである。   One aspect of the present invention is a computer program for operating a computer as the video providing system.

本発明の一態様は、事象を検知するセンサによる検知結果を示す検知情報表示部と、撮像装置によって撮像される映像の表示を指示するためのボタンと、を画面に表示させる制御部を備え、前記制御部は、前記ボタンを、そのボタンに対する操作によって表示される映像に関連する事象を検知するセンサによる検知結果を示す前記検知情報表示部と関連づけて表示させる、端末装置である。
本発明の一態様は、事象を検知するセンサによる検知結果を示す検知情報表示部を画面に表示させる制御部を備え、前記制御部は、前記検知情報表示部に対する操作に応じて、前記検知情報表示部が示す検知結果に関連する事象を撮像している撮像装置によって撮像される映像を、前記映像を提供する映像提供システムに要求する、端末装置である。
本発明の一態様は、事象を検知するセンサによる検知結果を示す検知情報表示部と、撮像装置によって撮像される映像の表示を指示するためのボタンと、を端末装置の画面に表示させるための情報を前記端末装置に送信する表示制御ステップを有し、前記表示制御ステップにおいて、前記ボタンを、そのボタンに対する操作によって表示される映像に関連する事象を検知するセンサによる検知結果を示す前記検知情報表示部と関連づけて表示させるための情報を前記端末装置に送信する、情報提供方法である。
本発明の一態様は、事象を検知するセンサによる検知結果を示す検知情報表示部を端末装置の画面に表示させるための情報を前記端末装置に送信する表示制御ステップと、前記検知情報表示部に対する操作に応じて、前記検知情報表示部が示す検知結果に関連する事象を撮像している撮像装置によって撮像される映像を、前記映像を提供する映像提供システムに要求するように定義された制御データを前記端末装置に送信する制御ステップと、を有する情報提供方法である。
One aspect of the present invention includes a control unit that displays on a screen a detection information display unit that indicates a detection result by a sensor that detects an event, and a button for instructing display of an image captured by an imaging device. The control unit is a terminal device that displays the button in association with the detection information display unit that indicates a detection result by a sensor that detects an event related to an image displayed by an operation on the button.
One aspect of the present invention includes a control unit that causes a detection information display unit that indicates a detection result by a sensor that detects an event to be displayed on a screen, and the control unit detects the detection information according to an operation on the detection information display unit. It is a terminal device that requests an image captured by an imaging device that captures an event related to the detection result indicated by the display unit to the image providing system that provides the image.
According to one aspect of the present invention, a detection information display unit that indicates a detection result by a sensor that detects an event, and a button for instructing display of an image captured by the imaging device are displayed on the screen of the terminal device. A display control step of transmitting information to the terminal device, wherein the detection information indicating a detection result by a sensor that detects an event related to an image displayed by an operation on the button in the display control step; An information providing method for transmitting information to be displayed in association with a display unit to the terminal device.
One aspect of the present invention includes a display control step of transmitting information for displaying a detection information display unit indicating a detection result by a sensor that detects an event on a screen of a terminal device to the terminal device, and the detection information display unit Control data defined to request a video providing system that provides the video for a video captured by an imaging device that is imaging an event related to the detection result indicated by the detection information display unit according to an operation. And a control step of transmitting to the terminal device.

本発明の一態様は、上記の端末装置としてコンピュータを動作させるためのコンピュータプログラムである。   One embodiment of the present invention is a computer program for operating a computer as the terminal device.

本発明により、撮像装置によって撮像された映像を閉域網で通信するシステムにおいて、より多くの撮像装置による映像を伝送することが可能となる。   According to the present invention, in a system that communicates video captured by an imaging device via a closed network, it is possible to transmit video from more imaging devices.

映像提供システムの一実施形態である監視システム400のシステム構成の例を表すシステム構成図である。It is a system configuration | structure figure showing the example of the system configuration | structure of the monitoring system 400 which is one Embodiment of a video provision system. 監視システム400の動作のうち、センサ情報が蓄積される際の処理及び解析処理が行われる処理の流れの具体例を示すシーケンスチャートである。It is a sequence chart which shows the specific example of the flow of the process in which the process at the time of sensor information accumulation | storage and the analysis process are performed among operation | movement of the monitoring system. 監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第一の具体例を示すシーケンスチャートである。4 is a sequence chart showing a first specific example of a processing flow when video data is provided to the terminal device 100 among operations of the monitoring system 400. 監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第二の具体例を示すシーケンスチャートである。10 is a sequence chart illustrating a second specific example of a flow of processing when video data is provided to the terminal device 100 among operations of the monitoring system 400. 監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第三の具体例を示すシーケンスチャートである。10 is a sequence chart showing a third specific example of the flow of processing when video data is provided to the terminal device 100 in the operation of the monitoring system 400. 監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第四の具体例を示すシーケンスチャートである。10 is a sequence chart showing a fourth specific example of the flow of processing when video data is provided to the terminal device 100 in the operation of the monitoring system 400. 端末装置100の表示部104に表示される画面の具体例を示す図である。6 is a diagram illustrating a specific example of a screen displayed on the display unit 104 of the terminal device 100. FIG. 撮像装置300によって撮像された映像が端末装置100の表示部104に表示される際の画面の例を示す図である。6 is a diagram illustrating an example of a screen when an image captured by the imaging apparatus 300 is displayed on the display unit 104 of the terminal apparatus 100. FIG.

図1は、映像提供システムの一実施形態である監視システム400のシステム構成の例を表すシステム構成図である。監視システム400は、第一ネットワーク500及び第二ネットワーク600を介して端末装置100と通信可能に接続される。監視システム400は、第三ネットワーク700を介して1以上のセンサ200と通信可能に接続される。監視システム400は、第四ネットワーク800を介して1以上の撮像装置300と通信可能に接続される。第一ネットワーク500、第二ネットワーク600、第三ネットワーク700及び第四ネットワーク800は、どのようなネットワークで構築されてもよい。例えば、これらのネットワークは全てインターネットで構成されてもよい。   FIG. 1 is a system configuration diagram illustrating an example of a system configuration of a monitoring system 400 that is an embodiment of a video providing system. The monitoring system 400 is communicably connected to the terminal device 100 via the first network 500 and the second network 600. The monitoring system 400 is communicably connected to one or more sensors 200 via the third network 700. The monitoring system 400 is communicably connected to one or more imaging devices 300 via the fourth network 800. The first network 500, the second network 600, the third network 700, and the fourth network 800 may be constructed by any network. For example, these networks may all be configured on the Internet.

端末装置100は、パーソナルコンピュータ、スマートフォン、タブレット等の通信可能な情報処理装置を用いて構成される。端末装置100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備える。端末装置100は、第一通信部101、第二通信部102、入力部103、表示部104、記憶部105及び制御部106を備える。制御部106は、映像表示プログラムを実行することにより、監視システム400によって提供される映像を取得し表示する。なお、映像表示プログラムの機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。映像表示プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。映像表示プログラムは、電気通信回線を介して送信されても良い。   The terminal device 100 is configured using a communicable information processing device such as a personal computer, a smartphone, or a tablet. The terminal device 100 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus. The terminal device 100 includes a first communication unit 101, a second communication unit 102, an input unit 103, a display unit 104, a storage unit 105, and a control unit 106. The control unit 106 acquires and displays the video provided by the monitoring system 400 by executing the video display program. Note that all or part of the functions of the video display program may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The video display program may be recorded on a computer-readable recording medium. The computer-readable recording medium is a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, a semiconductor storage device (for example, SSD: Solid State Drive), a hard disk built in a computer system, or a semiconductor storage. A storage device such as a device. The video display program may be transmitted via a telecommunication line.

第一通信部101は、通信インタフェース等の通信機器を用いて構成される。第一通信部101は、第一ネットワーク500を介して監視システム400との間で通信する。第一通信部101は、有線通信を行ってもよいし、無線通信を行ってもよい。   The first communication unit 101 is configured using a communication device such as a communication interface. The first communication unit 101 communicates with the monitoring system 400 via the first network 500. The first communication unit 101 may perform wired communication or wireless communication.

第二通信部102は、通信インタフェース等の通信機器を用いて構成される。第二通信部102は、第二ネットワーク600を介して監視システム400との間で通信する。第二ネットワーク600は、第一ネットワーク500とは異なるネットワークである。第二通信部102は、有線通信を行ってもよいし、無線通信を行ってもよい。第二ネットワーク600は、例えば通信会社によって法人向けに提供されるセキュリティの高い通信網(例えば閉域網)である。第二ネットワーク600は、例えば専用線、SSL(Secure Sockets Layer)を用いた通信経路である。   The second communication unit 102 is configured using a communication device such as a communication interface. The second communication unit 102 communicates with the monitoring system 400 via the second network 600. The second network 600 is a network different from the first network 500. The second communication unit 102 may perform wired communication or wireless communication. The second network 600 is a highly secure communication network (for example, a closed network) provided for corporations by a communication company, for example. The second network 600 is a communication path using a dedicated line, SSL (Secure Sockets Layer), for example.

入力部103は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。入力部103は、ユーザの指示を端末装置100に入力する際にユーザによって操作される。入力部103は、入力装置を端末装置100に接続するためのインタフェースであっても良い。この場合、入力部103は、入力装置においてユーザの入力に応じ生成された入力信号を端末装置100に入力する。   The input unit 103 is configured using an existing input device such as a keyboard, a pointing device (such as a mouse or a tablet), a button, or a touch panel. The input unit 103 is operated by the user when inputting a user instruction to the terminal device 100. The input unit 103 may be an interface for connecting the input device to the terminal device 100. In this case, the input unit 103 inputs an input signal generated in response to a user input in the input device to the terminal device 100.

表示部104は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部104は、センサ200の検知の結果を示す画像や監視システム400における解析結果を示す画像を表示する。表示部104は、画像表示装置を端末装置100に接続するためのインタフェースであっても良い。この場合、表示部104は、上記の画像を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
記憶部105は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部105は、制御部106による制御に応じてデータを記憶する。
The display unit 104 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display. The display unit 104 displays an image showing a detection result of the sensor 200 and an image showing an analysis result in the monitoring system 400. The display unit 104 may be an interface for connecting the image display device to the terminal device 100. In this case, the display unit 104 generates a video signal for displaying the image and outputs the video signal to an image display device connected to the display unit 104.
The storage unit 105 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 105 stores data according to control by the control unit 106.

制御部106は、端末装置100の動作を制御する。制御部106は、例えば映像表示プログラムの定義に従って画像を生成し、生成された画像を表示部104に表示させる。制御部106は、例えば入力部103に対するユーザの操作に応じて送信データを生成し、生成された送信データを第一ネットワーク500又は第二ネットワーク600介して送信する。制御部106は、例えば入力部103に対するユーザの操作に応じて、表示部104に表示される画像を変化させる。制御部106は、例えば第一ネットワーク500又は第二ネットワーク600を介して受信されたデータに基づいて画像を生成し、生成された画像を表示部104に表示させる。制御部106は、第一ネットワーク500を介してセンサ情報(センサ200によって検知された情報、検知の時刻、センサ200の識別情報を含む。)を受信すると、受信されたセンサ情報を記憶部105に記録する。制御部106は、第一ネットワーク500を介して解析結果情報(解析部407による解析結果、解析対象となった検知情報の検知の時刻、解析対象となった検知情報を検知したセンサ200の識別情報を含む。)を受信すると、受信された解析結果を記憶部105に記録する。   The control unit 106 controls the operation of the terminal device 100. For example, the control unit 106 generates an image according to the definition of the video display program, and causes the display unit 104 to display the generated image. For example, the control unit 106 generates transmission data according to a user operation on the input unit 103, and transmits the generated transmission data via the first network 500 or the second network 600. For example, the control unit 106 changes the image displayed on the display unit 104 in accordance with a user operation on the input unit 103. For example, the control unit 106 generates an image based on data received via the first network 500 or the second network 600 and causes the display unit 104 to display the generated image. When control unit 106 receives sensor information (including information detected by sensor 200, detection time, and identification information of sensor 200) via first network 500, control unit 106 stores the received sensor information in storage unit 105. Record. The control unit 106 transmits the analysis result information (the analysis result by the analysis unit 407, the detection time of the detection information to be analyzed, the identification information of the sensor 200 that has detected the detection information to be analyzed) via the first network 500. Is received), the received analysis result is recorded in the storage unit 105.

センサ200は、検知した情報(以下、「検知情報」という。)を第三ネットワーク700を介して監視システム400に送信する。第三ネットワーク700には、一つのセンサ200が接続されてもよいし、複数のセンサ200が接続されてもよい。センサ200にはどのような種類のセンサが適用されてもよい。センサ200には、複数種類のセンサが適用されてもよい。センサ200は、例えば温度を測定するセンサであってもよいし、気圧を測定するセンサであってもよいし、音量を測定するセンサであってもよいし、風速を測定するセンサであってもよい。ゲートウェイ装置等の中継装置を介することによって、複数のセンサ200が一つ又は複数のグループにグルーピングされてもよい。   The sensor 200 transmits the detected information (hereinafter referred to as “detection information”) to the monitoring system 400 via the third network 700. One sensor 200 may be connected to the third network 700, or a plurality of sensors 200 may be connected. Any type of sensor may be applied to the sensor 200. A plurality of types of sensors may be applied to the sensor 200. The sensor 200 may be, for example, a sensor for measuring temperature, a sensor for measuring atmospheric pressure, a sensor for measuring volume, or a sensor for measuring wind speed. Good. A plurality of sensors 200 may be grouped into one or a plurality of groups via a relay device such as a gateway device.

センサ200には固有の識別情報(以下、「センサID」という。)が割り当てられている。センサ200は、検知情報を監視システム400に送信する際に、自身に割り当てられているセンサIDも送信する。センサ200は、検知情報を監視システム400に送信する際に、検知情報が得られた日時(タイムスタンプ)も送信してもよい。センサ200は、例えば検知情報、センサID及びタイムスタンプを含むセンサ情報を生成し送信する。なお、上記のように複数のセンサ200がグルーピングされている場合、センサIDはセンサ200の所属グループをさらに示すように構成されてもよい。例えば、センサIDがグループピングに応じて階層構造をもっていてもよい。例えば、グループ1の3番目のセンサ200に対しては、“1−3”というセンサIDが割り当てられてもよい。   Unique identification information (hereinafter referred to as “sensor ID”) is assigned to the sensor 200. When the sensor 200 transmits the detection information to the monitoring system 400, the sensor 200 also transmits the sensor ID assigned to it. When transmitting the detection information to the monitoring system 400, the sensor 200 may also transmit the date and time (time stamp) when the detection information was obtained. The sensor 200 generates and transmits sensor information including, for example, detection information, a sensor ID, and a time stamp. When a plurality of sensors 200 are grouped as described above, the sensor ID may be configured to further indicate the group to which the sensor 200 belongs. For example, the sensor ID may have a hierarchical structure according to grouping. For example, a sensor ID “1-3” may be assigned to the third sensor 200 in group 1.

撮像装置300は、撮像装置300が設置された周囲の映像を撮像する。撮像装置300は、撮像された映像のデータを、自身が備える記憶装置に記録する。撮像装置300は、監視システム400による要求に応じて、第四ネットワーク800を介して閉域網を形成する。閉域網は、例えば第四ネットワーク800においてオーバーレイネットワークとして形成される。撮像装置300は、形成された閉域網を介して映像データを監視システム400に送信する。第四ネットワーク800には、一つの撮像装置300が接続されてもよいし、複数の撮像装置300が接続されてもよい。撮像装置300には固有の識別情報(以下、「カメラID」という。)が割り当てられている。撮像装置300は、映像データを監視システム400に送信する際に、自身に割り当てられているカメラIDも送信する。ゲートウェイ装置等の中継装置を介することによって、複数の撮像装置300が一つ又は複数のグループにグルーピングされてもよい。複数の撮像装置300がグルーピングされている場合、カメラIDは撮像装置300の所属グループをさらに示すように構成されてもよい。例えば、カメラIDがグループピングに応じて階層構造をもっていてもよい。例えば、グループ1の3番目の撮像装置300に対しては、“1−3”というカメラIDが割り当てられてもよい。   The imaging device 300 captures a surrounding image where the imaging device 300 is installed. The imaging device 300 records the captured video data in a storage device included in the imaging device 300. The imaging apparatus 300 forms a closed network via the fourth network 800 in response to a request from the monitoring system 400. The closed network is formed as an overlay network in the fourth network 800, for example. The imaging apparatus 300 transmits video data to the monitoring system 400 via the formed closed network. One imaging device 300 may be connected to the fourth network 800, or a plurality of imaging devices 300 may be connected. Unique identification information (hereinafter referred to as “camera ID”) is assigned to the imaging apparatus 300. When the imaging apparatus 300 transmits video data to the monitoring system 400, the imaging apparatus 300 also transmits a camera ID assigned to itself. A plurality of imaging devices 300 may be grouped into one or a plurality of groups via a relay device such as a gateway device. When a plurality of imaging devices 300 are grouped, the camera ID may be configured to further indicate a group to which the imaging device 300 belongs. For example, the camera ID may have a hierarchical structure according to grouping. For example, a camera ID “1-3” may be assigned to the third imaging device 300 in group 1.

監視システム400は、1台又は複数台の情報処理装置によって構成される。情報処理装置の具体例として、メインフレームやワークステーションやパーソナルコンピュータやPLC(Programmable Logic Controller)がある。例えば、監視システム400が一台の情報処理装置で構成される場合、情報処理装置は、バスで接続されたCPUやメモリや補助記憶装置などを備え、映像提供プログラムを実行する。なお、監視システム400の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。また、監視システム400は、専用のハードウェアによって実現されても良い。映像提供プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。映像提供プログラムは、電気通信回線を介して提供されても良い。監視システム400が複数台の情報処理装置によって構成される場合には、制御部405、センサ情報取得部406、解析部407、通信制御部408及び映像中継部409がそれぞれ異なる装置に実装されてもよいし、上記機能部のうち複数の機能部が一台の装置に実装されてもよい。例えば、制御部405、センサ情報取得部406、解析部407がそれぞれ異なる情報処理装置に実装され、通信制御部408及び映像中継部409が一台の情報処理装置に実装されてもよい。   The monitoring system 400 is configured by one or a plurality of information processing apparatuses. Specific examples of the information processing apparatus include a mainframe, a workstation, a personal computer, and a PLC (Programmable Logic Controller). For example, when the monitoring system 400 is configured by a single information processing device, the information processing device includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a video providing program. All or some of the functions of the monitoring system 400 may be realized using hardware such as an ASIC, PLD, or FPGA. Moreover, the monitoring system 400 may be realized by dedicated hardware. The video providing program may be recorded on a computer-readable recording medium. The video providing program may be provided via a telecommunication line. When the monitoring system 400 includes a plurality of information processing devices, the control unit 405, the sensor information acquisition unit 406, the analysis unit 407, the communication control unit 408, and the video relay unit 409 may be mounted on different devices. Alternatively, a plurality of functional units among the functional units may be mounted on one device. For example, the control unit 405, the sensor information acquisition unit 406, and the analysis unit 407 may be mounted on different information processing devices, and the communication control unit 408 and the video relay unit 409 may be mounted on one information processing device.

監視システム400は、第一通信部401、第二通信部402、第三通信部403、第四通信部404、制御部405、センサ情報取得部406、解析部407、通信制御部408、映像中継部409及び記憶部410を備える。   The monitoring system 400 includes a first communication unit 401, a second communication unit 402, a third communication unit 403, a fourth communication unit 404, a control unit 405, a sensor information acquisition unit 406, an analysis unit 407, a communication control unit 408, and a video relay. Unit 409 and storage unit 410.

第一通信部401は、通信インタフェース等の通信機器を用いて構成される。第一通信部401は、第一ネットワーク500を介して端末装置100との間で通信する。第一通信部401は、有線通信を行ってもよいし、無線通信を行ってもよい。第一通信部401は、例えばセンサ200によって取得された検知情報を含むセンサ情報を端末装置100に送信する。第一通信部401は、例えば解析部407による解析結果を端末装置100に送信する。   The first communication unit 401 is configured using a communication device such as a communication interface. The first communication unit 401 communicates with the terminal device 100 via the first network 500. The first communication unit 401 may perform wired communication or wireless communication. The first communication unit 401 transmits sensor information including detection information acquired by the sensor 200 to the terminal device 100, for example. For example, the first communication unit 401 transmits the analysis result of the analysis unit 407 to the terminal device 100.

第二通信部402は、通信インタフェース等の通信機器を用いて構成される。第二通信部402は、第二ネットワーク600を介して端末装置100との間で通信する。第二通信部402は、有線通信を行ってもよいし、無線通信を行ってもよい。第二通信部402は、例えば撮像装置300によって撮像された映像のデータ(以下、「映像データ」という。)を端末装置100に送信する。   The second communication unit 402 is configured using a communication device such as a communication interface. The second communication unit 402 communicates with the terminal device 100 via the second network 600. The second communication unit 402 may perform wired communication or wireless communication. For example, the second communication unit 402 transmits video data captured by the imaging device 300 (hereinafter referred to as “video data”) to the terminal device 100.

第三通信部403は、通信インタフェース等の通信機器を用いて構成される。第三通信部403は、第三ネットワーク700を介してセンサ200との間で通信する。第三通信部403は、有線通信を行ってもよいし、無線通信を行ってもよい。第三通信部403は、例えばセンサ200によって取得された検知情報を含むセンサ情報をセンサ200から受信する。   The third communication unit 403 is configured using a communication device such as a communication interface. The third communication unit 403 communicates with the sensor 200 via the third network 700. The third communication unit 403 may perform wired communication or wireless communication. The third communication unit 403 receives sensor information including detection information acquired by the sensor 200 from the sensor 200, for example.

第四通信部404は、通信インタフェース等の通信機器を用いて構成される。第四通信部404は、第四ネットワーク800を介して撮像装置300との間で通信する。第四通信部404は、有線通信を行ってもよいし、無線通信を行ってもよい。第四通信部404は、例えば撮像装置300によって撮像された映像データを撮像装置300から受信する。   The fourth communication unit 404 is configured using a communication device such as a communication interface. The fourth communication unit 404 communicates with the imaging device 300 via the fourth network 800. The fourth communication unit 404 may perform wired communication or wireless communication. For example, the fourth communication unit 404 receives video data captured by the imaging device 300 from the imaging device 300.

制御部405は、端末装置100に対して検知情報及び映像データを提供するために必要となる処理を実行する。制御部405は、端末装置100に対して解析結果を提供するために必要となる処理をさらに実行してもよい。制御部405の具体的な動作については後述する。
センサ情報取得部406は、第三ネットワーク700を介して1以上のセンサ200からセンサ情報を取得する。センサ情報取得部406は、取得されたセンサ情報を制御部405に出力する。
The control unit 405 executes processing necessary for providing detection information and video data to the terminal device 100. The control unit 405 may further execute processing necessary for providing the analysis result to the terminal device 100. Specific operations of the control unit 405 will be described later.
The sensor information acquisition unit 406 acquires sensor information from one or more sensors 200 via the third network 700. The sensor information acquisition unit 406 outputs the acquired sensor information to the control unit 405.

解析部407は、センサ情報取得部406によって取得された検知情報について解析処理を行う。解析部407は、解析結果情報(解析結果、解析対象となった検知情報の検知の時刻、解析対象となった検知情報を検知したセンサ200のセンサIDを含む。)を制御部405に出力する。解析部407が行う解析処理の具体例として、検知情報が正常であることを示す情報であるか、検知情報が異常が発生していることを示す情報であるか、について判定する処理がある。解析部407が行う解析処理の具体例として、現時点では正常であるものの将来異常が生じる可能性について判定する処理がある。より具体的には、センサ200の種別やセンサID毎に予め設定されている条件(例えば閾値)を検知情報が満たしているか否か判定することによって解析部407が判定を行ってもよい。解析部407が解析処理を行う対象となる検知情報は、センサ情報取得部406によって取得された検知情報(現在の検知情報)であってもよいし、制御部405によって指示された現在又は過去の検知情報であってもよいし、端末装置100のユーザや監視システム400の管理者によって指示された検知情報であってもよい。過去の検知情報は、記憶部410から読み出すことによって取得される。   The analysis unit 407 performs an analysis process on the detection information acquired by the sensor information acquisition unit 406. The analysis unit 407 outputs the analysis result information (including the analysis result, the detection time of the detection information to be analyzed, and the sensor ID of the sensor 200 that has detected the detection information to be analyzed) to the control unit 405. . As a specific example of the analysis process performed by the analysis unit 407, there is a process of determining whether the detection information is information indicating that the detection information is normal or whether the detection information is information indicating that an abnormality has occurred. As a specific example of the analysis process performed by the analysis unit 407, there is a process of determining whether there is a possibility of a future abnormality although it is normal at the present time. More specifically, the analysis unit 407 may perform the determination by determining whether or not the detection information satisfies a condition (for example, a threshold value) set in advance for each type of sensor 200 and sensor ID. The detection information to be analyzed by the analysis unit 407 may be the detection information (current detection information) acquired by the sensor information acquisition unit 406, or the current or past specified by the control unit 405. It may be detection information, or may be detection information instructed by a user of the terminal device 100 or an administrator of the monitoring system 400. The past detection information is acquired by reading from the storage unit 410.

通信制御部408は、映像中継部409と撮像装置300との間の経路を含む通信経路(第四ネットワーク800)において閉域網を構築する。通信制御部408によって構築される閉域網は、正当な権限を有しない第三者によって映像データが取得されることを抑止する通信経路である。通信制御部408は、さらに閉域網の通信に用いられるパケットを優先的に転送するQoS(Quality of Service)制御を行ってもよい。通信制御部408によって構築される閉域網には、例えばSSL(Secure Sockets Layer)、TLS(Transport Layer Security)のように暗号化通信方式を用いた通信(例えばVPN:Virtual Private Network)が適用されてもよい。通信制御部408は、例えば各撮像装置300のIPアドレスと、各撮像装置300のカメラIDとを対応付けたテーブルを予め記憶してもよい。通信制御部408は、テーブルを参照することによって、制御部405によって指示されたカメラIDのIPアドレスを取得し、閉域網を構築してもよい。   The communication control unit 408 constructs a closed network in a communication path (fourth network 800) including a path between the video relay unit 409 and the imaging device 300. The closed network constructed by the communication control unit 408 is a communication path that suppresses acquisition of video data by a third party who does not have a valid authority. The communication control unit 408 may further perform QoS (Quality of Service) control for preferentially transferring packets used for communication in the closed network. For the closed network constructed by the communication control unit 408, communication using an encrypted communication method (for example, VPN: Virtual Private Network) such as SSL (Secure Sockets Layer) and TLS (Transport Layer Security) is applied. Also good. For example, the communication control unit 408 may store in advance a table in which the IP address of each imaging device 300 is associated with the camera ID of each imaging device 300. The communication control unit 408 may acquire the IP address of the camera ID instructed by the control unit 405 by referring to the table and construct a closed network.

映像中継部409は、通信制御部408によって構築される閉域網を介して撮像装置300から映像データを受信する。映像中継部409は、受信された映像データを、第二ネットワーク600を介して端末装置100に送信する。映像中継部409は、例えばWEBサーバとして動作することによって映像データを端末装置100に提供してもよい。より具体的には、映像中継部409は、映像データのファイルを示すURL(Uniform Resource Locator)を制御部405を介して端末装置100に通知してもよい。この場合、映像中継部409は、映像データのファイルのURLに対する要求(例えばHTTPプロトコルのGETメソッド)の受信に応じて映像データを提供する。映像中継部409は、閉域網を介して受信される映像データのフォーマットと、端末装置100において再生可能な映像データのフォーマットとが異なる場合、フォーマットの変換処理を行う。端末装置100において再生可能な映像データのフォーマットの一例として、MP4やFlash Videoがある。映像中継部409は、映像データに対して画像処理を実施してもよい。例えば、映像中継部409は、映像に対してブライトネス又はコントラストを変更する画像処理を実施してもよい。映像中継部409は、中継対象の映像について映像が暗いか否かについて判断し、暗いと判断された場合にブライトネスを上げるように画像処理を実施してもよい。映像中継部409は、中継対象の映像について映像が不鮮明であるか否かについて判断し、不鮮明であると判断された場合にコントラストを上げるように画像処理を実施してもよい。   The video relay unit 409 receives video data from the imaging device 300 via a closed network constructed by the communication control unit 408. The video relay unit 409 transmits the received video data to the terminal device 100 via the second network 600. The video relay unit 409 may provide video data to the terminal device 100 by operating as, for example, a WEB server. More specifically, the video relay unit 409 may notify the terminal device 100 of a URL (Uniform Resource Locator) indicating a video data file via the control unit 405. In this case, the video relay unit 409 provides video data in response to reception of a request for the URL of the video data file (for example, a GET method of the HTTP protocol). The video relay unit 409 performs format conversion processing when the format of video data received via the closed network is different from the format of video data reproducible in the terminal device 100. Examples of video data formats that can be played back by the terminal device 100 include MP4 and Flash Video. The video relay unit 409 may perform image processing on the video data. For example, the video relay unit 409 may perform image processing for changing brightness or contrast on the video. The video relay unit 409 may determine whether or not the video to be relayed is dark, and may perform image processing so as to increase the brightness when it is determined that the video is dark. The video relay unit 409 may determine whether or not the video of the relay target video is unclear, and may perform image processing to increase the contrast when it is determined that the image is unclear.

記憶部410は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部410は、制御部405の制御にしたがってデータを記憶する。記憶部410は、例えばセンサ情報取得部406によって取得されたセンサ情報を記憶する。記憶部410は、解析部407による解析結果をさらに記憶してもよい。   The storage unit 410 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 410 stores data according to the control of the control unit 405. The storage unit 410 stores sensor information acquired by the sensor information acquisition unit 406, for example. The storage unit 410 may further store the analysis result obtained by the analysis unit 407.

図2は、監視システム400の動作のうち、センサ情報が蓄積される際の処理及び解析処理が行われる処理の流れの具体例を示すシーケンスチャートである。センサ200は、所定のタイミングでセンサ情報を生成する(ステップS101)。所定のタイミングとは、所定の時間間隔をあけたタイミングであってもよいし、所定の時刻が到来するタイミングであってもよいし、監視システム400等の他装置から指示を受けたタイミングであってもよいし、他のタイミングであってもよい。センサ200は、第三ネットワーク700を介して監視システム400に対しセンサ情報を送信する(ステップS102)。送信されるセンサ情報には、検知情報、センサID及びタイムスタンプが含まれる。   FIG. 2 is a sequence chart showing a specific example of the flow of processing in which the sensor information is accumulated and the analysis processing is performed in the operation of the monitoring system 400. The sensor 200 generates sensor information at a predetermined timing (step S101). The predetermined timing may be a timing having a predetermined time interval, a timing at which a predetermined time arrives, or a timing at which an instruction is received from another device such as the monitoring system 400. Or other timing may be sufficient. The sensor 200 transmits sensor information to the monitoring system 400 via the third network 700 (step S102). The transmitted sensor information includes detection information, sensor ID, and time stamp.

監視システム400のセンサ情報取得部406は、第三ネットワーク700を介してセンサ情報を受信すると、受信されたセンサ情報を制御部405に出力する。制御部405は、センサ情報取得部406からセンサ情報を取得すると、取得されたセンサ情報を記憶部410に記録する(ステップS103)。ステップS103における記録が繰り返し実行されることによって、記憶部410にはセンサ情報の履歴が記録される。また、制御部405は、取得されたセンサ情報を第一ネットワーク500を介して端末装置100に送信する(ステップS104)。端末装置100の制御部106は、センサ情報を受信すると、受信されたセンサ情報を表示部104に表示させる(ステップS105)。センサ情報は、例えばグラフとして時系列の変化が現れる形で表示されてもよいし、メーターのように直近の値のみが表れる形で表示されてもよい。   When the sensor information acquisition unit 406 of the monitoring system 400 receives the sensor information via the third network 700, the sensor information acquisition unit 406 outputs the received sensor information to the control unit 405. When acquiring the sensor information from the sensor information acquisition unit 406, the control unit 405 records the acquired sensor information in the storage unit 410 (step S103). By repeatedly executing the recording in step S103, a history of sensor information is recorded in the storage unit 410. Further, the control unit 405 transmits the acquired sensor information to the terminal device 100 via the first network 500 (step S104). When receiving the sensor information, the control unit 106 of the terminal device 100 displays the received sensor information on the display unit 104 (step S105). The sensor information may be displayed, for example, in a form in which a time-series change appears as a graph, or may be displayed in a form in which only the latest value appears like a meter.

監視システム400の解析部407は、センサ情報取得部406によって取得されたセンサ情報を所定のタイミングで制御部405に要求する。所定のタイミングとは、所定の時間間隔をあけたタイミングであってもよいし、所定の時刻が到来するタイミングであってもよいし、端末装置100等の他装置から指示を受けたタイミングであってもよいし、監視システム400の管理者から指示がなされたタイミングであってもよいし、他のタイミングであってもよい。解析部407は、要求をする際にセンサIDを指定してもよい。解析部407は、要求をする際に、時間帯を指定してもよい。制御部405は、解析部407の要求に応じてセンサ情報を記憶部410から読み出し、読み出されたセンサ情報を解析部407に出力する。制御部405は、センサIDが指定された場合には、指定されたセンサIDに対応するセンサ情報のみを解析部407に出力する。制御部405は、時間帯が指定された場合には、指定された時間帯に含まれる時刻のタイムスタンプを有するセンサ情報のみを解析部407に出力する。一方、制御部405は、時間帯が指定されない場合、各センサIDのセンサ情報のうち最新のセンサ情報を解析部407に出力してもよいし、要求後に最初に取得されたセンサ情報を解析部407に出力してもよいし、未だに解析部407による解析処理が行われていないセンサ情報のみを解析部407に出力してもよい。解析処理が行われていないセンサ情報のみを出力する処理は、制御部405が記憶部410において解析部407による解析が行われたか否かをセンサ情報毎に記録しておくことで可能になる。   The analysis unit 407 of the monitoring system 400 requests the control unit 405 for the sensor information acquired by the sensor information acquisition unit 406 at a predetermined timing. The predetermined timing may be a timing having a predetermined time interval, a timing at which a predetermined time arrives, or a timing at which an instruction is received from another device such as the terminal device 100. Alternatively, it may be the timing when an instruction from the administrator of the monitoring system 400 is given, or another timing. The analysis unit 407 may specify a sensor ID when making a request. The analysis unit 407 may specify a time zone when making a request. The control unit 405 reads sensor information from the storage unit 410 in response to a request from the analysis unit 407, and outputs the read sensor information to the analysis unit 407. When the sensor ID is designated, the control unit 405 outputs only the sensor information corresponding to the designated sensor ID to the analysis unit 407. When the time zone is designated, the control unit 405 outputs only the sensor information having the time stamp of the time included in the designated time zone to the analysis unit 407. On the other hand, when the time zone is not designated, the control unit 405 may output the latest sensor information among the sensor information of each sensor ID to the analysis unit 407, or the first acquisition of sensor information after the request is performed by the analysis unit. The sensor information may be output to 407, or only sensor information that has not been analyzed by the analysis unit 407 may be output to the analysis unit 407. The process of outputting only sensor information that has not been subjected to analysis processing can be performed by recording, for each sensor information, whether the control unit 405 has performed analysis by the analysis unit 407 in the storage unit 410.

解析部407は、制御部405から取得したセンサ情報に基づいて解析処理を実行する(ステップS106)。解析部407は、解析結果情報を制御部405に通知する。解析結果情報には、解析結果、解析対象となったセンサ情報のセンサID及びタイムスタンプが含まれる。制御部405は、解析部407から通知された解析結果情報を記憶部410に記録する。また、制御部405は、解析部407から通知された解析結果情報を端末装置100に送信する(ステップS107)。端末装置100の制御部106は、解析結果情報を受信すると、受信された解析結果情報に含まれる解析結果に応じた画像を表示部104に表示させる(ステップS108)。解析結果は、例えば検知情報の正常又は異常を示す画像又は文字として表示されてもよいし、検知情報の正常又は異常を示す色として表示されてもよい。   The analysis unit 407 performs an analysis process based on the sensor information acquired from the control unit 405 (step S106). The analysis unit 407 notifies the control unit 405 of the analysis result information. The analysis result information includes the analysis result, the sensor ID and time stamp of the sensor information to be analyzed. The control unit 405 records the analysis result information notified from the analysis unit 407 in the storage unit 410. In addition, the control unit 405 transmits the analysis result information notified from the analysis unit 407 to the terminal device 100 (step S107). When receiving the analysis result information, the control unit 106 of the terminal device 100 displays an image corresponding to the analysis result included in the received analysis result information on the display unit 104 (step S108). For example, the analysis result may be displayed as an image or a character indicating normality or abnormality of the detection information, or may be displayed as a color indicating normality or abnormality of the detection information.

制御部405は、記憶部410に記録されたセンサ情報を所定のタイミングで削除する。所定のタイミングは、例えば各センサ情報が記憶部410に記録されてから所定の時間(例えば24時間)が経過したタイミングであってもよい。例えば、センサ情報が占める記憶領域の大きさが閾値を超えた際に、所定のデータ量のセンサ情報が古い方からまとめて削除されてもよい。センサ情報の削除は、その他どのようなルールで行われてもよい。   The control unit 405 deletes the sensor information recorded in the storage unit 410 at a predetermined timing. The predetermined timing may be a timing at which a predetermined time (for example, 24 hours) has elapsed since each sensor information was recorded in the storage unit 410, for example. For example, when the size of the storage area occupied by the sensor information exceeds a threshold value, sensor information of a predetermined data amount may be deleted collectively from the oldest one. The deletion of the sensor information may be performed according to any other rule.

図3は、監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第一の具体例を示すシーケンスチャートである。端末装置100のユーザが入力部103を操作することによって画像表示操作を行うと(ステップS201)、制御部106は画像表示操作に応じて表示されるべき映像のカメラIDを決定する(ステップS202)。   FIG. 3 is a sequence chart showing a first specific example of the flow of processing when video data is provided to the terminal device 100 among the operations of the monitoring system 400. When the user of the terminal device 100 performs an image display operation by operating the input unit 103 (step S201), the control unit 106 determines a camera ID of a video to be displayed according to the image display operation (step S202). .

カメラIDは、例えばユーザによって直接指定されてもよいし、ユーザの操作に応じて制御部106によって選択されても良い。制御部106は、例えばユーザが画像表示操作の際に押下したボタンに対応付けられたカメラIDを、表示されるべき映像のカメラIDとして決定してもよい。この場合、制御部106は、ボタンとカメラIDとが対応付けられたテーブルを予め記憶している。制御部106は、例えばユーザが画像表示操作の際に押下したボタンと関連づけて表示されるセンサ情報のセンサIDに対応付けられたカメラIDを、表示されるべき映像のカメラIDとして決定してもよい。この場合、制御部106は、センサIDとカメラIDとが対応付けられたテーブルを予め記憶している。決定されるカメラIDの撮像装置300は、押下されたボタンと関連づけて表示されるセンサ情報のセンサIDが示すセンサ200が設置された付近の映像や、当該センサ200が検知する対象が映っている映像を撮像していることが望ましい。   The camera ID may be directly designated by the user, for example, or may be selected by the control unit 106 according to the user's operation. For example, the control unit 106 may determine the camera ID associated with the button pressed by the user during the image display operation as the camera ID of the video to be displayed. In this case, the control unit 106 stores in advance a table in which buttons and camera IDs are associated with each other. For example, the control unit 106 determines the camera ID associated with the sensor ID of the sensor information displayed in association with the button pressed by the user during the image display operation as the camera ID of the video to be displayed. Good. In this case, the control unit 106 stores in advance a table in which sensor IDs and camera IDs are associated with each other. The image pickup apparatus 300 with the determined camera ID shows a video around the area where the sensor 200 indicated by the sensor ID of the sensor information displayed in association with the pressed button is installed, and an object to be detected by the sensor 200. It is desirable to capture images.

制御部106は、映像時間情報を決定する(ステップS203)。映像時間情報は、要求される映像の撮像時間帯を一意に示す情報である。例えば、映像時間情報は、映像の開始時刻(映像の開始時点の撮像時刻)と終了時刻(映像の終了時点の撮像時刻)とを示す情報であってもよいし、映像の開始時刻と時間長とを示す情報であってもよいし、最新の映像を示す情報であってもよい。映像時間情報が最新の映像を示す情報である場合には、指定されたカメラIDの撮像装置300によって撮像された映像がリアルタイム又はリアルタイムに近い形(例えば伝送遅延分だけ遅れた映像)で提供される。映像時間情報は、例えば端末装置100のユーザによって指定されてもよい。この場合、制御部106は、ユーザが入力部103を操作することによって指定した内容で映像時間情報を決定する。映像時間情報は、例えば予め制御部106に固定的に設定されており、設定された時間に基づいて制御部106が決定してもよい。例えば、制御部106は、現在から遡って所定時間前から現在までの時間を固定的に映像時間情報として決定してもよい。制御部106は、カメラIDに基づいて映像時間情報を決定してもよい。例えば、制御部106は、現在までの所定の時間にわたって異常を示す解析結果が得られていないセンサIDに対応付けられたカメラIDに関しては、映像時間情報を最新の映像を示す情報に決定してもよい。一方、現在までの所定の時間内に異常を示す解析結果が得られたセンサIDに対応付けられたカメラIDに関しては、制御部106は、異常を示す解析結果が得られた時刻に基づいて映像時間情報を決定してもよい。より具体的には、異常を示す解析結果が得られた時刻の前後所定時間(例えば5秒、30秒、1分など)が映像時間情報として決定されてもよいし、異常を示す解析結果が得られた時刻から所定の時間(例えば5秒、30秒、1分など)遡った時刻から解析結果が得られた時刻までの時間が映像時間情報として決定されてもよい。   The control unit 106 determines video time information (step S203). The video time information is information that uniquely indicates a required video imaging time zone. For example, the video time information may be information indicating a video start time (image capturing time at the video start time) and an end time (image capturing time at the video end time), or the video start time and time length. Or information indicating the latest video. When the video time information is information indicating the latest video, the video captured by the imaging device 300 with the specified camera ID is provided in real time or in a form close to real time (for example, video delayed by a transmission delay). The The video time information may be specified by the user of the terminal device 100, for example. In this case, the control unit 106 determines the video time information based on the content specified by the user operating the input unit 103. The video time information is, for example, fixedly set in advance in the control unit 106, and may be determined by the control unit 106 based on the set time. For example, the control unit 106 may fixedly determine the time from a predetermined time before the present to the present as the video time information. The control unit 106 may determine the video time information based on the camera ID. For example, the control unit 106 determines video time information as information indicating the latest video for a camera ID associated with a sensor ID for which an analysis result indicating abnormality has not been obtained for a predetermined time until now. Also good. On the other hand, with respect to the camera ID associated with the sensor ID for which an analysis result indicating an abnormality is obtained within a predetermined time period until now, the control unit 106 displays a video based on the time when the analysis result indicating an abnormality is obtained. Time information may be determined. More specifically, a predetermined time (for example, 5 seconds, 30 seconds, 1 minute, etc.) before and after the time when the analysis result indicating the abnormality is obtained may be determined as the video time information. The time from the time that is a predetermined time (for example, 5 seconds, 30 seconds, 1 minute, etc.) after the obtained time to the time when the analysis result is obtained may be determined as the video time information.

制御部106は、決定されたカメラID及び映像時間情報を含む映像要求を第一ネットワーク500を介して監視システム400に送信する(ステップS204)。監視システム400の制御部405は、第一ネットワーク500を介して映像要求を受信すると、受信された映像要求に基づいて撮像装置300との間で閉域網を構築するための処理を行う(ステップS205)。以下、閉域網を構築する際の処理の具体例について説明する。   The control unit 106 transmits a video request including the determined camera ID and video time information to the monitoring system 400 via the first network 500 (step S204). When receiving the video request via the first network 500, the control unit 405 of the monitoring system 400 performs processing for constructing a closed network with the imaging device 300 based on the received video request (step S205). ). Hereinafter, a specific example of processing when constructing a closed network will be described.

まず、制御部405は受信された映像要求に含まれるカメラIDが示す撮像装置300との間で閉域網を構築することを通信制御部408に指示する。通信制御部408は、指示されたカメラIDが示す撮像装置300のIPアドレスを取得する。IPアドレスの取得は、カメラID及びIPアドレスを対応付けたテーブルを予め監視システム400が記憶しておくことで実現されてもよいし、上記のテーブルを有している他の装置に対してカメラIDを送信することでIPアドレスを問い合わせることで実現されてもよい。通信制御部408は、取得されたIPアドレスを用いて、第四ネットワーク800を介して撮像装置300との間に閉域網を構築する。   First, the control unit 405 instructs the communication control unit 408 to construct a closed network with the imaging device 300 indicated by the camera ID included in the received video request. The communication control unit 408 acquires the IP address of the imaging device 300 indicated by the instructed camera ID. The acquisition of the IP address may be realized by the monitoring system 400 storing in advance a table in which the camera ID and the IP address are associated with each other, or the camera may be compared with other devices having the above table. You may implement | achieve by inquiring an IP address by transmitting ID. The communication control unit 408 constructs a closed network with the imaging device 300 via the fourth network 800 using the acquired IP address.

制御部405は、映像中継部409に対して映像要求を出力することによって、要求されている映像のデータを取得するための情報(以下、「映像取得情報」という。)を要求する。映像取得情報は、例えば映像データを示すURLである。映像中継部409は、映像要求に含まれる映像時間情報に応じた映像のデータを、カメラIDに応じた撮像装置300に要求する(ステップS206)。撮像装置300は、監視システム400から映像のデータの要求を受けると、要求された映像時間情報に応じた映像のデータの監視システム400への送信を開始する(ステップS207)。映像中継部409は、撮像装置300から映像のデータを受信すると、受信された映像のデータに対し必要に応じてフォーマットの変換処理や表示サイズの変更処理や画像処理を実行する(ステップS208)。変換後の表示サイズは、要求元の端末装置100のスペックに応じて決定されてもよい。映像中継部409は、端末装置100に対して送信される映像のデータをバッファリングする。例えば、映像中継部409は、自身が有するWEBサーバ機能で公開可能な記憶領域に映像のデータをバッファリングしてもよい。映像中継部409は、バッファリングされた映像の映像取得情報を決定し、決定された映像取得情報を制御部405に出力する。制御部405は、映像要求の送信元である端末装置100に対し映像取得情報を第一ネットワーク500を介して送信する(ステップS209)。   The control unit 405 requests information (hereinafter referred to as “video acquisition information”) for acquiring requested video data by outputting a video request to the video relay unit 409. The video acquisition information is, for example, a URL indicating video data. The video relay unit 409 requests video data corresponding to the video time information included in the video request to the imaging device 300 corresponding to the camera ID (step S206). Upon receiving a video data request from the monitoring system 400, the imaging apparatus 300 starts transmission of video data corresponding to the requested video time information to the monitoring system 400 (step S207). When receiving video data from the imaging apparatus 300, the video relay unit 409 performs format conversion processing, display size change processing, and image processing on the received video data as necessary (step S208). The display size after conversion may be determined according to the specifications of the requesting terminal device 100. The video relay unit 409 buffers video data transmitted to the terminal device 100. For example, the video relay unit 409 may buffer video data in a storage area that can be disclosed by its own WEB server function. The video relay unit 409 determines the video acquisition information of the buffered video and outputs the determined video acquisition information to the control unit 405. The control unit 405 transmits the video acquisition information to the terminal device 100 that is the transmission source of the video request via the first network 500 (step S209).

端末装置100の制御部106は、映像取得情報を受信すると、映像取得情報に基づいて映像のデータの取得を要求する情報(以下、「映像データリクエスト」という。)を生成する。映像データリクエストは、例えばHTTPプロトコルのGETメソッド等のデータの取得の要求を示す情報である。HTTPプロトコルのGETメソッドが用いられる場合には、映像取得情報として映像のデータを示すURLが用いられてもよい。制御部106は、生成された映像データリクエストを、第二ネットワーク600を介して監視システム400に送信する(ステップS210)。映像中継部409は、第二ネットワーク600を介して映像データリクエストを受信すると、映像データリクエストによって要求されている映像のデータを第二ネットワーク600を介して端末装置100に送信する(ステップS211)。映像のデータの送信は、ストリーミングとして実現されてもよいし、ファイルのダウンロードとして実現されてもよい。端末装置100の制御部106は、第二ネットワーク600を介して受信された映像データの映像を表示部104に表示させる(ステップS212)。その後、端末装置100に対して映像データの送信が完了すると、監視システム400の通信制御部408及び撮像装置300は、第四ネットワーク800における閉域網を開放する。閉域網の開放は、ステップS207の処理が終了した後であればどのタイミングであってもよい。この処理により、映像中継部409の通信リソースも開放される。   When receiving the video acquisition information, the control unit 106 of the terminal device 100 generates information (hereinafter referred to as “video data request”) for requesting acquisition of video data based on the video acquisition information. The video data request is information indicating a data acquisition request such as an HTTP protocol GET method. When the GET method of the HTTP protocol is used, a URL indicating video data may be used as the video acquisition information. The control unit 106 transmits the generated video data request to the monitoring system 400 via the second network 600 (Step S210). When receiving the video data request via the second network 600, the video relay unit 409 transmits the video data requested by the video data request to the terminal device 100 via the second network 600 (step S211). The transmission of the video data may be realized as streaming or as a file download. The control unit 106 of the terminal device 100 causes the display unit 104 to display the video data received via the second network 600 (step S212). Thereafter, when transmission of video data to the terminal device 100 is completed, the communication control unit 408 and the imaging device 300 of the monitoring system 400 open the closed network in the fourth network 800. The closed network may be released at any timing as long as the processing in step S207 is completed. Through this process, the communication resources of the video relay unit 409 are also released.

図4は、監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第二の具体例を示すシーケンスチャートである。第二の具体例では、第一の具体例と異なり映像時間情報決定処理が端末装置100ではなく監視システム400において実行される。   FIG. 4 is a sequence chart showing a second specific example of the flow of processing when video data is provided to the terminal device 100 among the operations of the monitoring system 400. In the second specific example, unlike the first specific example, the video time information determination process is executed in the monitoring system 400 instead of the terminal device 100.

端末装置100のユーザが入力部103を操作することによって画像表示操作を行うと(ステップS301)、制御部106は画像表示操作に応じて表示されるべき映像のカメラIDを決定する(ステップS302)。カメラIDが決定される際の処理は、図3に示される第一の具体例と同様であるため説明を省略する。   When the user of the terminal device 100 performs an image display operation by operating the input unit 103 (step S301), the control unit 106 determines a camera ID of a video to be displayed according to the image display operation (step S302). . The processing when the camera ID is determined is the same as the first specific example shown in FIG.

制御部106は、決定されたカメラIDを含む映像要求を第一ネットワーク500を介して監視システム400に送信する(ステップS303)。第二の具体例では、端末装置100から監視システム400へ送信される映像要求には映像時間情報が含まれない。   The control unit 106 transmits a video request including the determined camera ID to the monitoring system 400 via the first network 500 (step S303). In the second specific example, video time information transmitted from the terminal device 100 to the monitoring system 400 does not include video time information.

監視システム400の制御部405は、端末装置100から映像要求を受信すると、映像時間情報を決定する(ステップS304)。映像時間情報は、例えば予め制御部405に固定的に設定されており、設定された時間に基づいて制御部405が決定してもよい。例えば、制御部405は、現在から遡って所定時間前から現在までの時間を固定的に映像時間情報として決定してもよい。制御部405は、カメラIDに基づいて映像時間情報を決定してもよい。例えば、制御部405は、記憶部410に記録されている解析結果情報を参照し、現在までの所定の時間にわたって異常を示す解析結果が得られていないセンサIDに対応付けられたカメラIDに関しては、映像時間情報を最新の映像を示す情報に決定してもよい。一方、現在までの所定の時間内に異常を示す解析結果が得られたセンサIDに対応付けられたカメラIDに関しては、制御部405は、異常を示す解析結果が得られた時刻に基づいて映像時間情報を決定してもよい。より具体的には、異常を示す解析結果が得られた時刻の前後所定時間(例えば5秒、30秒、1分など)が映像時間情報として決定されてもよいし、異常を示す解析結果が得られた時刻から所定の時間(例えば5秒、30秒、1分など)遡った時刻から解析結果が得られた時刻までの時間を映像時間情報として決定されてもよい。この場合、制御部106は、センサIDとカメラIDとが対応付けられたテーブルを予め記憶している。   When receiving the video request from the terminal device 100, the control unit 405 of the monitoring system 400 determines video time information (step S304). The video time information is, for example, fixedly set in advance in the control unit 405, and may be determined by the control unit 405 based on the set time. For example, the control unit 405 may fixedly determine the time from a predetermined time before the present to the present as the video time information. The control unit 405 may determine the video time information based on the camera ID. For example, the control unit 405 refers to the analysis result information recorded in the storage unit 410 and relates to a camera ID associated with a sensor ID for which an analysis result indicating abnormality has not been obtained for a predetermined time until now. The video time information may be determined as information indicating the latest video. On the other hand, with respect to the camera ID associated with the sensor ID for which an analysis result indicating abnormality is obtained within a predetermined time until now, the control unit 405 displays a video based on the time when the analysis result indicating abnormality is obtained. Time information may be determined. More specifically, a predetermined time (for example, 5 seconds, 30 seconds, 1 minute, etc.) before and after the time when the analysis result indicating the abnormality is obtained may be determined as the video time information. The video time information may be determined from a time that is a predetermined time (for example, 5 seconds, 30 seconds, 1 minute, etc.) before the time when the analysis result is obtained. In this case, the control unit 106 stores in advance a table in which sensor IDs and camera IDs are associated with each other.

制御部405は、映像時間情報を決定すると、撮像装置300との間で閉域網の構築を開始する(ステップS305)。ステップS305以降の処理(ステップS305〜S312)は、それぞれ図3におけるステップS205〜S212の処理と同じである。そのため、説明を省略する。   When determining the video time information, the control unit 405 starts to construct a closed network with the imaging device 300 (step S305). The processes after step S305 (steps S305 to S312) are the same as the processes of steps S205 to S212 in FIG. Therefore, explanation is omitted.

図5は、監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第三の具体例を示すシーケンスチャートである。第三の具体例では、第一の具体例と異なりユーザによってセンサ情報の履歴が選択される。   FIG. 5 is a sequence chart showing a third specific example of the flow of processing when video data is provided to the terminal device 100 in the operation of the monitoring system 400. In the third specific example, unlike the first specific example, the history of sensor information is selected by the user.

まず、端末装置100のユーザは、表示部104に表示されているセンサ情報の履歴のうち、その履歴に係る検知情報が得られた時点の映像を所望する履歴に対して選択操作を行う(ステップS401)。選択操作は、例えば表示部104に表示された履歴を示す複数のセンサ情報又は解析結果を示す画像のうち、所望するセンサ情報又は解析結果を示す画像を押下することによって行われてもよい。選択操作は、例えば表示部104において履歴を示す複数のセンサ情報又は複数の解析結果のと関連づけて表示されるボタンを押下することによって行われてもよい。履歴に対して選択操作が行われると、制御部106は選択された履歴のセンサ情報に基づいてカメラIDを決定する(ステップS402)。この場合、制御部106は、センサIDとカメラIDとが対応付けられたテーブルを予め記憶している。ステップS402以降の処理(ステップS402〜S412)は、それぞれ図3におけるステップS202〜S212の処理と同じである。そのため、説明を省略する。なお、ステップS402以降の処理は、図5に示される流れとは異なりステップS302〜S312の処理と同じように実行されてもよい。   First, the user of the terminal device 100 performs a selection operation on a history of desired video at the time when the detection information related to the history is obtained from the history of sensor information displayed on the display unit 104 (step). S401). The selection operation may be performed, for example, by pressing an image indicating desired sensor information or an analysis result among a plurality of sensor information indicating the history displayed on the display unit 104 or an image indicating the analysis result. The selection operation may be performed, for example, by pressing a button displayed in association with a plurality of pieces of sensor information indicating a history or a plurality of analysis results on the display unit 104. When the selection operation is performed on the history, the control unit 106 determines the camera ID based on the sensor information of the selected history (step S402). In this case, the control unit 106 stores in advance a table in which sensor IDs and camera IDs are associated with each other. The processes after step S402 (steps S402 to S412) are the same as the processes of steps S202 to S212 in FIG. 3, respectively. Therefore, explanation is omitted. In addition, the process after step S402 may be performed similarly to the process of step S302-S312 unlike the flow shown by FIG.

図6は、監視システム400の動作のうち、映像データが端末装置100に提供される際の処理の流れの第四の具体例を示すシーケンスチャートである。第四の具体例では、端末装置100が監視システム400から受信した解析結果に応じて映像を表示するか否か判定し、判定結果に応じてその後の処理を実行する。   FIG. 6 is a sequence chart showing a fourth specific example of the flow of processing when video data is provided to the terminal device 100 among the operations of the monitoring system 400. In the fourth specific example, the terminal device 100 determines whether to display a video according to the analysis result received from the monitoring system 400, and performs subsequent processing according to the determination result.

まず、監視システム400の解析部407が、制御部405から取得したセンサ情報に基づいて解析処理を実行する(ステップS501)。解析部407は、解析結果情報を制御部405に通知する。解析結果情報には、解析結果、解析対象となったセンサ情報のセンサID及びタイムスタンプが含まれる。制御部405は、解析部407から通知された解析結果情報を端末装置100に送信する(ステップS502)。   First, the analysis unit 407 of the monitoring system 400 executes an analysis process based on the sensor information acquired from the control unit 405 (step S501). The analysis unit 407 notifies the control unit 405 of the analysis result information. The analysis result information includes the analysis result, the sensor ID and time stamp of the sensor information to be analyzed. The control unit 405 transmits the analysis result information notified from the analysis unit 407 to the terminal device 100 (step S502).

端末装置100の制御部106は、解析結果情報を受信すると、受信された解析結果情報に含まれる解析結果に応じた画像を表示部104に表示させる(ステップS503)。解析結果は、例えば検知情報の正常又は異常を示す画像又は文字として表示されてもよいし、検知情報の正常又は異常を示す色として表示されてもよい。制御部106は、受信された解析結果情報に含まれる解析結果に基づいて、得られた解析結果に関係する映像の表示が必要であるか否か判定する(ステップS504)。具体的には、制御部106は、受信された解析結果情報に含まれる解析結果が所定の条件を満たしているか否か判定する。所定の条件は、例えば解析結果が異常を示すことであってもよい。所定の条件は、例えば解析結果が所定の時間(例えば10秒、1分)又は所定の回数(例えば2回、5回)にわたって異常を示すことであっても良い。制御部106は、映像の表示が必要ではない(所定の条件を満たしていない)と判定した場合(ステップS504−NO)、ステップS505以降の処理を実行せずに次の解析結果情報の受信まで待機する。制御部106は、映像の表示が必要である(所定の条件を満たしている)と判定した場合(ステップS504−YES)、カメラID及び映像時間情報を決定する(ステップS505)。ステップS506以降の処理(ステップS506〜S514)は、それぞれ図3におけるステップS204〜S212の処理と同じである。そのため、説明を省略する。なお、映像時間情報を決定する処理は、図6に示される流れとは異なり監視システム400において実行されてもよい。   When receiving the analysis result information, the control unit 106 of the terminal device 100 causes the display unit 104 to display an image corresponding to the analysis result included in the received analysis result information (step S503). For example, the analysis result may be displayed as an image or a character indicating normality or abnormality of the detection information, or may be displayed as a color indicating normality or abnormality of the detection information. Based on the analysis result included in the received analysis result information, the control unit 106 determines whether it is necessary to display a video related to the obtained analysis result (step S504). Specifically, the control unit 106 determines whether or not the analysis result included in the received analysis result information satisfies a predetermined condition. The predetermined condition may be that the analysis result indicates abnormality, for example. The predetermined condition may be, for example, that the analysis result indicates an abnormality over a predetermined time (for example, 10 seconds, 1 minute) or a predetermined number of times (for example, 2 times, 5 times). When it is determined that display of video is not necessary (predetermined conditions are not satisfied) (NO in step S504), the control unit 106 does not execute the processing from step S505 onward until the next analysis result information is received. stand by. When it is determined that display of video is necessary (a predetermined condition is satisfied) (step S504—YES), the control unit 106 determines a camera ID and video time information (step S505). The processes after step S506 (steps S506 to S514) are the same as the processes of steps S204 to S212 in FIG. Therefore, explanation is omitted. Note that the processing for determining the video time information may be executed in the monitoring system 400, unlike the flow shown in FIG.

図7は、端末装置100の表示部104に表示される画面の具体例を示す図である。表示部104には、複数の検知情報表示部901及び映像ボタン902が表示される。
検知情報表示部901は、センサ200による検知情報を示す。検知情報表示部901は、解析結果が正常である場合と異常である場合とで異なる態様で表示されてもよい。例えば、解析結果が正常である場合と異常である場合とで検知情報表示部901の一部又は全部の色が異なってもよいし、線の太さが異なってもよいし、点滅の有無が異なってもよい。
FIG. 7 is a diagram illustrating a specific example of a screen displayed on the display unit 104 of the terminal device 100. A plurality of detection information display units 901 and video buttons 902 are displayed on the display unit 104.
The detection information display unit 901 shows information detected by the sensor 200. The detection information display unit 901 may be displayed in a different manner depending on whether the analysis result is normal or abnormal. For example, a part or all of the color of the detection information display unit 901 may be different depending on whether the analysis result is normal or abnormal, the thickness of the line may be different, and the presence or absence of blinking May be different.

映像ボタン902は、ユーザによって押下されることによって、撮像装置300によって撮像された映像が表示されるボタンである。映像ボタン902は、その映像ボタン902が押下されることによって表示される映像と関連するセンサ200の検知情報を示す検知情報表示部901と関連づけて表示される。すなわち、映像ボタン902に対応付けられたカメラIDの撮像装置300は、押下された映像ボタン902と関連づけて表示される検知情報表示部901が示す検知情報のセンサ200が設置された付近の映像や、当該センサ200が検知する対象が映っている映像を撮像していることが望ましい。図2及び図3のシーケンスチャートにおける“画像表示操作”は、例えば映像ボタン902が押下されることによって行われてもよい。関連づけた表示は、例えば距離が近い箇所(近傍)に表示されることによって実現されてもよいし、線などの幾何学形状によって接続して表示されることによって実現されてもよいし、色分けの表示(例えば同じ色で表示される、背景が同じ色である)によって実現されてもよい。   The video button 902 is a button for displaying video captured by the imaging device 300 when pressed by the user. The video button 902 is displayed in association with a detection information display unit 901 indicating detection information of the sensor 200 related to the video displayed when the video button 902 is pressed. In other words, the imaging device 300 with the camera ID associated with the video button 902 has a video of the vicinity where the detection information sensor 200 indicated by the detection information display unit 901 displayed in association with the pressed video button 902 is installed. It is desirable to capture an image showing the object detected by the sensor 200. The “image display operation” in the sequence charts of FIGS. 2 and 3 may be performed, for example, when the video button 902 is pressed. The associated display may be realized, for example, by being displayed at a location (near) where the distance is close, or may be realized by being connected and displayed by a geometric shape such as a line, It may be realized by display (for example, the same color is displayed, the background is the same color).

グラフ903は、センサ200による検知情報である数値の時系列変化を示す。
システム画像表示領域904は、複数のセンサ200が設けられた監視対象のシステムの構成を表す画像が表示される領域である。
履歴表示領域905は、複数のセンサ200におけるセンサ情報及び解析結果情報の履歴が表示される領域である。例えば、履歴表示領域905には、最新の履歴から所定数のセンサ情報及び解析結果情報が縦に並べて表示される。図5のシーケンスチャートにおける“履歴選択操作”は、例えば履歴表示領域905に表示されたセンサ情報又は解析結果情報が押下されることによって行われてもよい。
A graph 903 shows a time-series change of a numerical value that is detection information by the sensor 200.
The system image display area 904 is an area in which an image representing the configuration of the monitoring target system provided with the plurality of sensors 200 is displayed.
The history display area 905 is an area in which the history of sensor information and analysis result information in the plurality of sensors 200 is displayed. For example, in the history display area 905, a predetermined number of sensor information and analysis result information from the latest history are displayed vertically. The “history selection operation” in the sequence chart of FIG. 5 may be performed by pressing sensor information or analysis result information displayed in the history display area 905, for example.

図8は、撮像装置300によって撮像された映像が端末装置100の表示部104に表示される際の画面の例を示す図である。端末装置100の表示部104に映像が表示される場合、図7に示される画面の上のレイヤにポップアップ領域906が表示されてもよい。ポップアップ領域906には、映像表示領域907及び数値表示部908が設けられる。映像表示領域907には、第二ネットワーク600を介して受信される映像が表示される。数値表示部908には、同じポップアップ領域906の映像表示領域907に表示されている映像が撮像されたのと同じ時刻におけるセンサ200のセンサ情報が表示される。このような映像とセンサ情報との同期(同じ時刻に得られた映像とセンサ情報とを表示すること)は、例えば以下のように行われてもよい。   FIG. 8 is a diagram illustrating an example of a screen when the video imaged by the imaging device 300 is displayed on the display unit 104 of the terminal device 100. When an image is displayed on the display unit 104 of the terminal device 100, a pop-up area 906 may be displayed on the upper layer of the screen shown in FIG. In the pop-up area 906, a video display area 907 and a numerical value display unit 908 are provided. An image received via the second network 600 is displayed in the image display area 907. The numerical information display unit 908 displays sensor information of the sensor 200 at the same time that the video displayed in the video display area 907 of the same pop-up area 906 is captured. Such synchronization of video and sensor information (displaying video and sensor information obtained at the same time) may be performed as follows, for example.

まず、制御部106は、第二ネットワーク600を介して監視システム400から映像のデータを受信する。映像のデータには、各フレームが撮像された時刻を導くことが可能な情報が付与されている。例えば、最初のフレームが撮像された時刻と、各フレーム間で経過する時間に関する情報とが映像のデータに付与されていてもよい。例えば、所定の間隔毎にフレームに対して撮像された時刻が付与されていてもよい。制御部106は、表示部104に表示されている映像のフレームの撮像時刻を取得する。制御部106は、表示されている映像のカメラIDと対応付けられたセンサIDを有するセンサ情報のうち、同時刻のタイムスタンプを有するセンサ情報を記憶部105から取得する。そして、制御部106は、取得されたセンサ情報に基づいて数値表示部908の画像を生成する。この場合、制御部106は、センサIDとカメラIDとが対応付けられたテーブルを予め記憶している。   First, the control unit 106 receives video data from the monitoring system 400 via the second network 600. Information capable of deriving the time at which each frame was captured is added to the video data. For example, the time when the first frame was imaged and information related to the time elapsed between the frames may be added to the video data. For example, the time taken for the frame may be given at predetermined intervals. The control unit 106 acquires the imaging time of the video frame displayed on the display unit 104. The control unit 106 acquires, from the storage unit 105, sensor information having a time stamp at the same time among sensor information having a sensor ID associated with the camera ID of the displayed video. Then, the control unit 106 generates an image of the numerical value display unit 908 based on the acquired sensor information. In this case, the control unit 106 stores in advance a table in which sensor IDs and camera IDs are associated with each other.

同期処理は以下のように行われてもよい。制御部106は、上述した処理によって表示部104に表示されている映像のフレームの撮像時刻を取得する。制御部106は、表示されている映像のカメラIDと対応付けられたセンサIDを有するセンサ情報のうち、同時刻のタイムスタンプを有するセンサ情報を監視システム400に要求する。監視システム400の制御部405は、要求されたセンサ情報を記憶部410から読み出す。制御部405は、読み出されたセンサ情報を、要求元である端末装置100に送信する。制御部106は、センサ情報を受信する。そして、制御部106は、受信されたセンサ情報に基づいて数値表示部908の画像を生成する。この場合、制御部106は、センサIDとカメラIDとが対応付けられたテーブルを予め記憶している。   The synchronization process may be performed as follows. The control unit 106 acquires the imaging time of the video frame displayed on the display unit 104 by the above-described processing. The control unit 106 requests the monitoring system 400 for sensor information having a time stamp of the same time among sensor information having a sensor ID associated with the camera ID of the displayed video. The control unit 405 of the monitoring system 400 reads the requested sensor information from the storage unit 410. The control unit 405 transmits the read sensor information to the terminal device 100 that is the request source. The control unit 106 receives sensor information. Then, the control unit 106 generates an image of the numerical value display unit 908 based on the received sensor information. In this case, the control unit 106 stores in advance a table in which sensor IDs and camera IDs are associated with each other.

このように構成された監視システム400では、映像データが伝送されるネットワーク(第四ネットワーク800)において、常に閉域網が形成されるのではなく、端末装置100に対して映像のデータが送信されるタイミングでのみ閉域網が形成される。そして、映像のデータの送信が完了すると閉域網は開放される。閉域網が開放されることにより、閉域網を構築するネットワークリソースが開放されるため、新たに閉域網を構築することが可能となる。そのため、撮像装置によって撮像された映像を閉域網で通信するシステムにおいて、より多くの撮像装置による映像を伝送することが可能となる。
また、監視システム400では、映像データが閉域網を介して伝送される。そのため、映像のデータに関して高いセキュリティを維持することが可能となる。
In the monitoring system 400 configured as described above, in the network (fourth network 800) through which video data is transmitted, a closed network is not always formed, but video data is transmitted to the terminal device 100. A closed network is formed only at the timing. When the transmission of the video data is completed, the closed network is released. Since the network resources for constructing the closed network are released by releasing the closed network, it is possible to construct a new closed network. Therefore, in a system that communicates video captured by an imaging device via a closed network, it is possible to transmit video from more imaging devices.
In the monitoring system 400, video data is transmitted via a closed network. Therefore, it is possible to maintain high security with respect to video data.

また、センサ情報が端末装置100に伝送されるネットワーク(第一ネットワーク500)と映像のデータが端末装置100に伝送されるネットワーク(第二ネットワーク600)とが異なる。そのため、高い優先度であり且つ高い頻度で発生する小容量のセンサ情報の送信が、大容量の映像のデータの送信によって遅延や輻輳してしまうことを抑制できる。
また、センサ情報が監視システム400に伝送されるネットワーク(第三ネットワーク700)と映像のデータが監視システム400に伝送されるネットワーク(第四ネットワーク800)とが異なる。そのため、高い優先度であり且つ高い頻度で発生する小容量のセンサ情報の送信が、大容量の映像のデータの送信によって遅延や輻輳してしまうことを抑制できる。
Further, a network (first network 500) in which sensor information is transmitted to the terminal device 100 is different from a network (second network 600) in which video data is transmitted to the terminal device 100. Therefore, transmission of small-capacity sensor information that has high priority and occurs frequently can be prevented from being delayed or congested due to transmission of large-capacity video data.
Also, the network (third network 700) through which sensor information is transmitted to the monitoring system 400 is different from the network (fourth network 800) through which video data is transmitted to the monitoring system 400. Therefore, transmission of small-capacity sensor information that has high priority and occurs frequently can be prevented from being delayed or congested due to transmission of large-capacity video data.

また、端末装置100の表示部104に表示される画面では、センサ情報の表示(例えば検知情報表示部901)と、そのセンサ情報に関連する映像を表示させるためのボタン(例えば映像ボタン902)とが関連づけて表示される。そのため、端末装置100のユーザは、あるセンサ情報に関連する映像を見たい場合に、そのセンサ情報に関連する映像を撮像しているカメラのカメラID等の情報を記憶しておく必要が無い。すなわち、直感的にセンサ情報の表示と関連づけて表示されているボタンを押下することによって、容易に所望の映像を見ることが可能となる。   Further, on the screen displayed on the display unit 104 of the terminal device 100, display of sensor information (for example, detection information display unit 901), and a button (for example, video button 902) for displaying an image related to the sensor information. Are displayed in association with each other. Therefore, when the user of the terminal device 100 wants to view a video related to certain sensor information, it is not necessary to store information such as the camera ID of the camera that is capturing the video related to the sensor information. That is, it is possible to easily view a desired video by intuitively pressing a button displayed in association with the display of sensor information.

[変形例]
端末装置100と監視システム400との間のネットワークは必ずしも二つである必要は無い。例えば、端末装置100と監視システム400とは物理的に一つのネットワークで接続され、このネットワーク上に複数の論理ネットワークが構築されてもよい。この場合、センサ情報と映像のデータとがそれぞれ異なる論理ネットワークで送信されてもよい。このような論理ネットワークは、例えばVLAN(Virtual LAN)等の技術を用いて構成されてもよい。また、端末装置100と監視システム400とは、物理的にも論理的にも一つのネットワークで接続されてもよい。この場合、センサ情報と映像のデータとは同じネットワークで送信される。
第一ネットワークは、閉域網として構築されてもよい。第二ネットワークも、閉域網として構築されてもよい。第三ネットワークも、閉域網として構築されてもよい。
センサ情報取得部406は、記憶部410にセンサ情報を記録してもよい。この場合、制御部405は必ずしもセンサ情報を記憶部410に記録する必要はない。制御部405は、例えばセンサ情報取得部406に対してセンサ情報を要求することによってセンサ情報を取得してもよい。センサ情報取得部406は、制御部405から受ける要求に応じて記憶部410からセンサ情報を取得し、取得されたセンサ情報を制御部405に出力してもよい。
[Modification]
The number of networks between the terminal device 100 and the monitoring system 400 is not necessarily two. For example, the terminal device 100 and the monitoring system 400 may be physically connected by a single network, and a plurality of logical networks may be constructed on this network. In this case, the sensor information and the video data may be transmitted through different logical networks. Such a logical network may be configured using a technique such as VLAN (Virtual LAN). Further, the terminal device 100 and the monitoring system 400 may be physically and logically connected by a single network. In this case, sensor information and video data are transmitted over the same network.
The first network may be constructed as a closed network. The second network may also be constructed as a closed network. The third network may also be constructed as a closed network.
The sensor information acquisition unit 406 may record sensor information in the storage unit 410. In this case, the control unit 405 does not necessarily need to record sensor information in the storage unit 410. The control unit 405 may acquire the sensor information by requesting the sensor information from the sensor information acquisition unit 406, for example. The sensor information acquisition unit 406 may acquire sensor information from the storage unit 410 in response to a request received from the control unit 405, and output the acquired sensor information to the control unit 405.

図2のシーケンスチャートでは、制御部405はセンサ情報を個々に端末装置100に送信しているが、制御部405は複数のセンサ情報をまとめて端末装置100に送信してもよい。また、制御部405は、過去の所定の期間(例えば現在までの5秒間)に受信されたセンサ情報をまとめて端末装置100に送信してもよい。   In the sequence chart of FIG. 2, the control unit 405 transmits the sensor information to the terminal device 100 individually, but the control unit 405 may transmit a plurality of pieces of sensor information to the terminal device 100 together. In addition, the control unit 405 may collectively transmit sensor information received during a predetermined period in the past (for example, up to 5 seconds until now) to the terminal device 100.

解析部407は、解析結果が異常を示す場合にのみ解析結果情報を制御部405に通知してもよい。制御部405は、解析結果が異常を示す場合にのみ解析結果情報を端末装置100に送信してもよい。   The analysis unit 407 may notify the analysis result information to the control unit 405 only when the analysis result indicates abnormality. The control unit 405 may transmit the analysis result information to the terminal device 100 only when the analysis result indicates abnormality.

図3のステップS201における画像表示操作は、図2のステップS108における解析結果の表示において異常の発生が表示されたことに応じてユーザによって実行されてもよいし、異常の発生がないときにユーザによって実行されてもよい。また、画像表示操作の有無にかかわらず制御部106が所定の条件に基づいてステップS202以降の処理を実行してもよい。   The image display operation in step S201 in FIG. 3 may be executed by the user in response to the occurrence of an abnormality displayed in the analysis result display in step S108 in FIG. May be executed by In addition, the control unit 106 may execute the processing after step S202 based on a predetermined condition regardless of whether or not an image display operation is performed.

図3等におけるカメラIDを決定する処理は、必ずしも端末装置100において実行される必要は無い。例えば、端末装置100はユーザによって押下されたボタンを示す識別情報や、押下されたボタンと関連づけて表示されるセンサ情報のセンサIDを監視システム400に送信するように構成されてもよい。この場合、監視システム400の制御部405は、ボタンを示す識別情報又はセンサIDに対応付けられたカメラIDを、表示されるべき映像のカメラIDとして決定してもよい。この場合、制御部405は、ボタンを示す識別情報又はセンサIDとカメラIDとが対応付けられたテーブルを予め記憶している。
図8では、ポップアップ領域906の数値表示部908の具体例として、メーターのように直近の値のみが表れる形での表示の例を示したが、このような例に限定されない。例えば、数値表示部908には、センサ情報がグラフとして時系列の変化が現れる形で表示されてもよい。
端末装置100の表示部104に表示される画面には、映像ボタン902が表示されなくともよい。この場合、映像ボタン902と同等の機能を、検知情報表示部901が実現してもよい。すなわち、検知情報表示部901が操作可能なボタンとして機能してもよい。検知情報表示部901が操作されると、検知情報表示部901が示す検知情報のセンサ200が設置された付近の映像や、当該センサ200が検知する対象が映っている映像を撮像している映像を制御部106が監視システム400に要求する。
端末装置100の表示部104に表示される画面は、端末装置100にインストールされているプログラムの実行により生成されるのではなく、監視システム400の制御部405によって端末装置100に提供されてもよい。例えば、WEBブラウザで上記画面が表示される場合には、制御部405は上記画面が表示されるような画面情報(例えばHTMLで定義されたデータ)を端末装置100に送信してもよい。
The process for determining the camera ID in FIG. 3 and the like is not necessarily executed in the terminal device 100. For example, the terminal device 100 may be configured to transmit to the monitoring system 400 identification information indicating a button pressed by the user or sensor ID of sensor information displayed in association with the pressed button. In this case, the control unit 405 of the monitoring system 400 may determine the camera ID associated with the identification information indicating the button or the sensor ID as the camera ID of the video to be displayed. In this case, the control unit 405 stores in advance a table in which identification information indicating a button or a sensor ID and a camera ID are associated with each other.
In FIG. 8, as a specific example of the numerical value display unit 908 in the pop-up area 906, an example of display in a form in which only the latest value appears like a meter is shown, but it is not limited to such an example. For example, the numerical information display unit 908 may display the sensor information in a form in which a time-series change appears as a graph.
The video button 902 may not be displayed on the screen displayed on the display unit 104 of the terminal device 100. In this case, the detection information display unit 901 may realize a function equivalent to the video button 902. That is, the detection information display unit 901 may function as an operable button. When the detection information display unit 901 is operated, a video in the vicinity of where the sensor 200 of the detection information indicated by the detection information display unit 901 is installed, or a video in which a target to be detected by the sensor 200 is captured. Is requested to the monitoring system 400.
The screen displayed on the display unit 104 of the terminal device 100 may be provided to the terminal device 100 by the control unit 405 of the monitoring system 400 instead of being generated by executing a program installed in the terminal device 100. . For example, when the screen is displayed by a WEB browser, the control unit 405 may transmit screen information (for example, data defined by HTML) such that the screen is displayed to the terminal device 100.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

100…端末装置, 101…第一通信部, 102…第二通信部, 103…入力部, 104…表示部, 105…記憶部, 106…制御部, 200…センサ, 300…撮像装置, 400…監視システム, 401…第一通信部, 402…第二通信部, 403…第三通信部, 404…第四通信部, 405…制御部, 406…センサ情報取得部, 407…解析部, 408…通信制御部, 409…映像中継部, 410…記憶部, 500…第一ネットワーク, 600…第二ネットワーク, 700…第三ネットワーク, 800…第四ネットワーク DESCRIPTION OF SYMBOLS 100 ... Terminal device, 101 ... 1st communication part, 102 ... 2nd communication part, 103 ... Input part, 104 ... Display part, 105 ... Memory | storage part, 106 ... Control part, 200 ... Sensor, 300 ... Imaging device, 400 ... Monitoring system 401 ... First communication unit 402 ... Second communication unit 403 ... Third communication unit 404 ... Fourth communication unit 405 ... Control unit 406 ... Sensor information acquisition unit 407 ... Analysis unit 408 ... Communication control unit, 409 ... Video relay unit, 410 ... Storage unit, 500 ... First network, 600 ... Second network, 700 ... Third network, 800 ... Fourth network

Claims (10)

撮像装置によって撮像された映像のデータに対する要求が端末装置から受信された場合に、前記映像のデータを前記端末装置に中継する映像中継部と前記撮像装置との間の経路を含む通信経路において閉域網を構築し、前記映像のデータの中継が終了した後に前記閉域網を開放する通信制御部、
を備える映像提供システム。
When a request for video data captured by the imaging device is received from the terminal device, the communication path including the route between the video relay unit that relays the video data to the terminal device and the imaging device is closed. A communication control unit for constructing a network and opening the closed network after relaying of the video data is completed;
A video providing system.
前記撮像装置によって撮像される映像に関連する事象を検知するセンサから送信される情報であって、前記事象の検知の結果を表す検知情報を含む情報であるセンサ情報を第一ネットワークを介して前記端末装置に送信する制御部と、
前記映像中継部と、をさらに備え、
前記映像中継部は、前記第一ネットワークとは異なる第二ネットワークを介して前記映像のデータを前記端末装置に中継する、請求項1に記載の映像提供システム。
Sensor information that is information transmitted from a sensor that detects an event related to an image captured by the imaging device and includes detection information that represents a result of detection of the event is transmitted via the first network. A control unit for transmitting to the terminal device;
The video relay unit,
The video providing system according to claim 1, wherein the video relay unit relays the video data to the terminal device via a second network different from the first network.
前記撮像装置によって撮像される映像に関連する事象を検知するセンサから送信される情報であって、前記事象の検知の結果を表す検知情報を含む情報であるセンサ情報を第三ネットワークを介して前記センサから受信するセンサ情報取得部をさらに備え、
前記映像中継部は、前記撮像装置から前記第三ネットワークとは異なる第四ネットワークを介して前記映像のデータを受信する、請求項1又は2に記載の映像提供システム。
Sensor information that is information transmitted from a sensor that detects an event related to an image captured by the imaging device and includes detection information that represents a result of detection of the event is transmitted via a third network. It further comprises a sensor information acquisition unit that receives from the sensor,
The video providing system according to claim 1, wherein the video relay unit receives the video data from the imaging device via a fourth network different from the third network.
撮像装置によって撮像された映像のデータに対する要求が端末装置から受信された場合に、前記映像のデータを前記端末装置へ中継する映像中継部と前記撮像装置との間の経路を含む通信経路において閉域網を構築するステップと、
前記映像のデータの中継が終了した後に前記閉域網を開放するステップと、
を有する映像提供方法。
When a request for video data captured by the imaging device is received from the terminal device, the communication path including the route between the video relay unit that relays the video data to the terminal device and the imaging device is closed. Building a net,
Releasing the closed network after the relay of the video data is completed;
A method for providing images.
請求項1から請求項3のいずれか一項に記載の映像提供システムとしてコンピュータを動作させるためのコンピュータプログラム。   A computer program for causing a computer to operate as the video providing system according to any one of claims 1 to 3. 事象を検知するセンサによる検知結果を示す検知情報表示部と、撮像装置によって撮像される映像の表示を指示するためのボタンと、を画面に表示させる制御部を備え、
前記制御部は、前記ボタンを、そのボタンに対する操作によって表示される映像に関連する事象を検知するセンサによる検知結果を示す前記検知情報表示部と関連づけて表示させる、端末装置。
A control unit that displays on the screen a detection information display unit that indicates a detection result by a sensor that detects an event, and a button for instructing display of an image captured by the imaging device;
The said control part is a terminal device which displays the said button in association with the said detection information display part which shows the detection result by the sensor which detects the event relevant to the image | video displayed by operation with respect to the button.
事象を検知するセンサによる検知結果を示す検知情報表示部を画面に表示させる制御部を備え、
前記制御部は、前記検知情報表示部に対する操作に応じて、前記検知情報表示部が示す検知結果に関連する事象を撮像している撮像装置によって撮像される映像を、前記映像を提供する映像提供システムに要求する、端末装置。
A control unit that displays on the screen a detection information display unit that indicates a detection result by a sensor that detects an event,
In accordance with an operation on the detection information display unit, the control unit provides an image that is captured by an imaging device that captures an event related to a detection result indicated by the detection information display unit, and provides the video A terminal device that requests the system.
事象を検知するセンサによる検知結果を示す検知情報表示部と、撮像装置によって撮像される映像の表示を指示するためのボタンと、を端末装置の画面に表示させるための情報を前記端末装置に送信する表示制御ステップを有し、
前記表示制御ステップにおいて、前記ボタンを、そのボタンに対する操作によって表示される映像に関連する事象を検知するセンサによる検知結果を示す前記検知情報表示部と関連づけて表示させるための情報を前記端末装置に送信する、情報提供方法。
Information for displaying on the screen of the terminal device, a detection information display unit indicating a detection result by the sensor that detects the event, and a button for instructing display of an image captured by the imaging device is transmitted to the terminal device Display control step to
In the display control step, information for displaying the button in association with the detection information display unit indicating a detection result by a sensor that detects an event related to an image displayed by an operation on the button is displayed on the terminal device. Information providing method to be transmitted.
事象を検知するセンサによる検知結果を示す検知情報表示部を端末装置の画面に表示させるための情報を前記端末装置に送信する表示制御ステップと、
前記検知情報表示部に対する操作に応じて、前記検知情報表示部が示す検知結果に関連する事象を撮像している撮像装置によって撮像される映像を、前記映像を提供する映像提供システムに要求するように定義された制御データを前記端末装置に送信する制御ステップと、
を有する情報提供方法。
A display control step for transmitting to the terminal device information for displaying a detection information display unit indicating a detection result by a sensor for detecting an event on the screen of the terminal device;
In response to an operation on the detection information display unit, a video provided by the imaging device that captures an event related to a detection result indicated by the detection information display unit is requested from a video providing system that provides the video. A control step for transmitting the control data defined in 1 to the terminal device;
A method for providing information.
請求項6又は7に記載の端末装置としてコンピュータを動作させるためのコンピュータプログラム。   A computer program for causing a computer to operate as the terminal device according to claim 6.
JP2015239681A 2015-12-08 2015-12-08 Image providing system and image providing method Active JP6671164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015239681A JP6671164B2 (en) 2015-12-08 2015-12-08 Image providing system and image providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015239681A JP6671164B2 (en) 2015-12-08 2015-12-08 Image providing system and image providing method

Publications (2)

Publication Number Publication Date
JP2017108252A true JP2017108252A (en) 2017-06-15
JP6671164B2 JP6671164B2 (en) 2020-03-25

Family

ID=59060184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015239681A Active JP6671164B2 (en) 2015-12-08 2015-12-08 Image providing system and image providing method

Country Status (1)

Country Link
JP (1) JP6671164B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121326A (en) * 2021-02-08 2022-08-19 株式会社オプティム Program, method, information processing device, and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019455A (en) * 2010-07-09 2012-01-26 Panasonic Corp Vpn device, vpn networking method, vpn program, and recording medium
JP2012048708A (en) * 2010-08-26 2012-03-08 Fuji Xerox Co Ltd Communication support device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019455A (en) * 2010-07-09 2012-01-26 Panasonic Corp Vpn device, vpn networking method, vpn program, and recording medium
JP2012048708A (en) * 2010-08-26 2012-03-08 Fuji Xerox Co Ltd Communication support device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121326A (en) * 2021-02-08 2022-08-19 株式会社オプティム Program, method, information processing device, and system

Also Published As

Publication number Publication date
JP6671164B2 (en) 2020-03-25

Similar Documents

Publication Publication Date Title
US20160203370A1 (en) Doorbell camera early detection
JP6511541B2 (en) Message updating method, apparatus and terminal
US9338398B2 (en) Transmission management system, transmission system, program, program supply system, and maintenance system
JP2013068615A (en) Control system and control method of infrared thermographic device
US11184411B2 (en) Communication terminal, communication system, log data transmission method, and non-transitory computer-readable medium
GB2426652A (en) Transmission of video frames having given characteristics
TW201543944A (en) Device capable of notifying operation state change thereof through network and communication method of the device
JP2011217055A (en) Image recording control apparatus and monitoring system
JP6671164B2 (en) Image providing system and image providing method
JP5765920B2 (en) Transmitting apparatus and transmitting method
JP2008283410A (en) Recorder and recording method
JP6133460B1 (en) Operation support system, operation support program, and operation support method
JP6589736B2 (en) Monitoring system
EP3629577A1 (en) Data transmission method, camera and electronic device
JP5461623B2 (en) Monitoring data processing in a monitoring system
JP5045094B2 (en) Anomaly detection system, anomaly detection server and anomaly detection server program
JP2009211363A (en) Client server system
JP6453281B2 (en) Surveillance camera system, information processing apparatus, information processing method, and program
WO2017187607A1 (en) Video monitoring method, server and video monitoring system
CN114579394A (en) Log viewing method, log generating method and device and electronic equipment
CN106462315B (en) Data communication system, display device, portable data assistance and data transferring method
JP6207656B1 (en) Video surveillance method, server, and video surveillance system
JP2005167925A (en) Monitoring camera apparatus
JP4553221B2 (en) Monitoring and reporting method and system, and computer-readable information recording medium recording monitoring and reporting program
JP6595245B2 (en) Monitoring system, information providing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200303

R150 Certificate of patent or registration of utility model

Ref document number: 6671164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250