JP2020102817A - Monitor target identification apparatus, monitor target identification system, and monitor target identification method - Google Patents

Monitor target identification apparatus, monitor target identification system, and monitor target identification method Download PDF

Info

Publication number
JP2020102817A
JP2020102817A JP2018241050A JP2018241050A JP2020102817A JP 2020102817 A JP2020102817 A JP 2020102817A JP 2018241050 A JP2018241050 A JP 2018241050A JP 2018241050 A JP2018241050 A JP 2018241050A JP 2020102817 A JP2020102817 A JP 2020102817A
Authority
JP
Japan
Prior art keywords
monitoring
target
communication device
identification
transmitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018241050A
Other languages
Japanese (ja)
Inventor
康雄 成田
Yasuo Narita
康雄 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2018241050A priority Critical patent/JP2020102817A/en
Publication of JP2020102817A publication Critical patent/JP2020102817A/en
Priority to JP2023187818A priority patent/JP2024012472A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a monitor target identification apparatus, a monitor target identification system, and a monitor target identification method for allowing individual identification of a target included in a monitor image.SOLUTION: A monitor information management server 10 as a monitor target identification apparatus stores transmitter management data in which identification information of a transmitter 40 is associated with target identification information being information identifiably indicating a monitor target holding a transmitter 40. Also, the monitor information management server 10 specifies a position of a shooting target included in a monitor image, and specifies a position of the transmitter 40 which has transmitted the identification information received by a receiver 30 on the basis of a radio wave condition from the transmitter 40 detected by the receiver 30. Further, the monitor information management server 10 performs the individual identification of the monitor target included in the monitor image by specifying correspondence between the shooting target and the monitor target held by the transmitter 40 on the basis of the transmitter management data, a specified position of the shooting target, and a specified position of the transmitter 40.SELECTED DRAWING: Figure 1

Description

本発明は、映像による対象の監視に用いられる監視対象識別装置、監視対象識別システム、および、監視対象識別方法に関する。 The present invention relates to a monitoring target identification device, a monitoring target identification system, and a monitoring target identification method used for monitoring a target by video.

インターネット等のネットワークに接続された撮影端末であるネットワークカメラを、対象の監視に利用するシステムが知られている。撮影端末は、監視の対象領域を撮影し、その撮影データは、上記ネットワークに接続されたサーバを経由して表示端末に送信される。そして、表示端末は、受信した撮影データに基づく映像を表示する。これにより、利用者は、表示端末を用いて対象領域の様子を確認することができる。 A system is known in which a network camera, which is a photographing terminal connected to a network such as the Internet, is used to monitor a target. The photographing terminal photographs the target area to be monitored, and the photographed data is transmitted to the display terminal via the server connected to the network. Then, the display terminal displays a video based on the received shooting data. Thereby, the user can confirm the state of the target area using the display terminal.

さらに、撮影端末に加えて、赤外線センサー等の各種のセンサーを利用したシステムも提案されている。こうしたシステムでは、対象領域における人の出入りや設備の異常等の変化がセンサーによって検出され、利用者は、これらの変化が検出されたときの対象領域の様子を、撮影端末が撮影した映像によって確認することができる(例えば、特許文献1参照)。 Further, a system using various sensors such as an infrared sensor in addition to the photographing terminal has been proposed. In such systems, sensors detect changes in the entry and exit of people, equipment abnormalities, etc., and the user can check the state of the target area when these changes are detected by the image taken by the imaging terminal. Can be performed (see, for example, Patent Document 1).

特開2005−208878号公報JP, 2005-208878, A

ところで、上述のような監視を要する種々の状況のなかには、予め定められた人物や物品について、それの位置や動きの監視が望まれる状況がある。例えば、工場や工事現場等において、複数の作業者のうちの誰がどの場所で作業をしているかを監視したいという要望がある。一方、上述した撮影端末からの映像のみを頼りにして、映像に含まれる人物や物品を見分けることは、映像を確認する利用者にとって負担が大きい。他方、上記特許文献1に記載のシステムのように赤外線センサーを利用すれば、人物の位置や動きは検出可能であるものの、周囲と同等の温度を有する物品の位置や動きの検出は困難であり、また、赤外線センサーによっては人物や物品の個体識別ができない。 By the way, among the various situations requiring monitoring as described above, there are situations where it is desired to monitor the position and movement of a predetermined person or article. For example, in a factory or a construction site, there is a demand to monitor who is among a plurality of workers and at which place. On the other hand, it is a heavy burden for the user who confirms the image to distinguish the person or the article included in the image by relying only on the image from the photographing terminal described above. On the other hand, if the infrared sensor is used like the system described in Patent Document 1, it is possible to detect the position and movement of a person, but it is difficult to detect the position and movement of an article having the same temperature as the surroundings. In addition, individual identification of a person or an article cannot be performed by an infrared sensor.

本発明は、監視映像に含まれる対象の個体識別を可能とした監視対象識別装置、監視対象識別システム、および、監視対象識別方法を提供することを目的とする。 It is an object of the present invention to provide a monitoring target identification device, a monitoring target identification system, and a monitoring target identification method that enable individual identification of a target included in a monitoring video.

上記課題を解決する監視対象識別装置は、監視領域内を撮影して監視映像として出力する撮影端末と、前記撮影端末の撮影範囲内に位置する監視対象に保持された第1通信機からその識別情報を近距離での無線通信によって受信する第2通信機と、に接続される監視対象識別装置であって、前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられた管理データを記憶する記憶部と、前記監視映像に含まれる撮影対象の位置を特定する監視映像処理部と、前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記第2通信機が検出した前記第1通信機からの電波の状態に基づいて特定する通信機特定部と、前記管理データと、前記監視映像処理部が特定した前記撮影対象の位置と、前記通信機特定部が特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行う個体識別部と、を備える。 A monitoring target identification device that solves the above-described problems is provided by a capturing terminal that captures an image of a monitoring area and outputs it as a monitoring image, and a first communication device that is held by a monitoring target that is located within an imaging range of the capturing terminal. A monitoring target identification device that is connected to a second communication device that receives information by short-range wireless communication, the identification information of the first communication device, and the monitoring target that holds the first communication device. A storage unit that stores management data associated with target identification information that is information that enables identification, a monitoring video processing unit that specifies a position of a shooting target included in the monitoring video, and the second communication device. A communication device specifying unit that specifies the position of the first communication device that has transmitted the identification information received by the second communication device based on the state of the radio wave from the first communication device detected by the second communication device; And holding the photographing target and the first communication device based on the position of the photographing target specified by the monitoring video processing unit and the position of the first communication device specified by the communication device specifying unit. An individual identification unit that identifies the monitoring target included in the monitoring video by identifying the correspondence with the monitoring target.

上記課題を解決する監視対象識別システムは、監視領域内を撮影して監視映像として出力する撮影端末と、監視対象に保持される第1通信機と、前記撮影端末の撮影範囲内に位置する前記第1通信機からその識別情報を近距離での無線通信によって受信する第2通信機と、前記撮影端末および前記第2通信機と接続された監視対象識別装置と、を備える監視対象識別システムであって、前記監視対象識別装置は、前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられた管理データを記憶する記憶部と、前記監視映像に含まれる撮影対象の位置を特定する監視映像処理部と、前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記第2通信機が検出した前記第1通信機からの電波の状態に基づいて特定する通信機特定部と、前記管理データと、前記監視映像処理部が特定した前記撮影対象の位置と、前記通信機特定部が特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行う個体識別部と、を備える。 A surveillance target identification system for solving the above-mentioned problems includes a photographing terminal for photographing the inside of a surveillance region and outputting it as a surveillance image, a first communication device held by the surveillance target, and a photographing terminal located within the photographing range of the photographing terminal. A monitoring target identification system, comprising: a second communication device that receives its identification information from a first communication device by short-range wireless communication; and a monitoring target identification device connected to the photographing terminal and the second communication device. Then, the monitoring target identification device is associated with management data in which identification information of the first communication device and target identification information that is information that enables identification of the monitoring target holding the first communication device are associated with each other. A storage unit for storing the above, a monitor image processing unit for specifying a position of a shooting target included in the monitor image, and a position of the first communication device that has transmitted the identification information received by the second communication device, A communication device specifying unit that specifies the second communication device based on the state of the radio wave from the first communication device, the management data, the position of the imaging target specified by the monitoring image processing unit, and the communication Based on the position of the first communication device specified by the device specifying unit, by specifying the correspondence between the imaging target and the monitoring target holding the first communication device, the monitoring included in the monitoring video And an individual identification unit for performing individual identification of the target.

上記課題を解決する監視対象識別方法は、撮影端末が、監視領域内を撮影して、その映像である監視映像を監視対象識別装置に出力することと、監視対象に保持される第1通信機が、前記第1通信機の識別情報を発信することと、第2通信機が、前記撮影端末の撮影範囲内に位置する前記第1通信機から前記識別情報を近距離での無線通信によって受信して、当該識別情報と、前記第2通信機が検出した前記第1通信機からの電波の状態を示す情報とを前記監視対象識別装置に出力することと、前記監視対象識別装置が、前記監視映像に含まれる撮影対象の位置を特定することと、前記監視対象識別装置が、前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記電波の状態を示す情報に基づいて特定することと、前記監視対象識別装置が、前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられたデータと、特定した前記撮影対象の位置と、特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行うことと、を含む。 A monitoring target identification method for solving the above-described problem is provided that a photographing terminal captures an image of a monitoring area and outputs a monitoring image, which is the image, to a monitoring target identification device, and a first communication device held by the monitoring target. Transmits the identification information of the first communication device, and the second communication device receives the identification information from the first communication device located within the photographing range of the photographing terminal by wireless communication at a short distance. Then, outputting the identification information and information indicating the state of the radio wave from the first communication device detected by the second communication device to the monitoring target identification device, and the monitoring target identification device, The position of the shooting target included in the monitoring video is specified, and the monitoring target identification device determines the position of the first communication device that has transmitted the identification information received by the second communication device, Specifying based on the information shown, the monitoring target identification device, the identification information of the first communication device, and the target identification information that is information indicating the monitoring target holding the first communication device in an identifiable manner. On the basis of the data associated with each other, the identified position of the imaging target, and the identified position of the first communication device, the correspondence between the imaging target and the monitoring target holding the first communication device. The identification of the monitoring target included in the monitoring video is performed by specifying.

上記構成によれば、監視映像が含む撮影対象の位置の特定と、第1通信機からの電波の状態を利用した第1通信機の位置の特定に基づく監視対象の位置の特定との連携によって、監視映像に含まれる監視対象の個体識別が可能となる。したがって、監視映像のみによっては、監視映像に含まれる監視対象の個体識別が困難な状況においても、当該監視対象の個体識別が可能である。 According to the above configuration, by the cooperation of the specification of the position of the shooting target included in the monitoring video and the specification of the position of the monitoring target based on the specification of the position of the first communication device using the state of the radio wave from the first communication device. It is possible to identify the individual monitoring target included in the monitoring video. Therefore, even if it is difficult to identify the monitoring target included in the monitoring video only by the monitoring video, the monitoring target can be identified.

上記構成において、前記第1通信機は、自発的に電波を発する発信機であり、前記第2通信機は、当該電波を受信する受信機であってもよい。
上記構成によれば、第1通信機が、第2通信機からの電波を受けて起動する場合と比較して、第1通信機と第2通信機との通信が可能な距離や向きについての制約が小さい。したがって、監視対象識別システムの汎用性が高められる。
In the above configuration, the first communication device may be a transmitter that spontaneously emits a radio wave, and the second communication device may be a receiver that receives the radio wave.
According to the above configuration, as compared with the case where the first communication device is activated by receiving the radio wave from the second communication device, the distance and the direction in which the communication between the first communication device and the second communication device is possible. The constraints are small. Therefore, the versatility of the monitoring target identification system is enhanced.

上記監視対象識別装置において、前記監視対象識別装置は、表示装置と接続され、前記監視映像と、前記撮影対象との対応が特定された前記監視対象の前記対象識別情報を、前記監視映像における当該撮影対象の位置と対応付けて示す情報とを含む画像の表示データを生成する表示データ生成部と、前記表示データを前記表示装置に出力する出力部と、を備えてもよい。 In the monitoring target identification device, the monitoring target identification device is connected to a display device, and the target identification information of the monitoring target in which the correspondence between the monitoring video and the shooting target is specified is included in the monitoring video. A display data generation unit that generates display data of an image that includes information that is associated with the position of the shooting target, and an output unit that outputs the display data to the display device may be provided.

上記構成によれば、表示装置の利用者は、表示装置に表示される画像を見ることによって、監視映像に含まれる監視対象の個々の識別を容易に把握することができる。
上記監視対象識別装置において、前記監視映像処理部が位置を特定した前記撮影対象のなかに、前記個体識別部による前記監視対象との対応の特定ができない対象が含まれるとき、外部への通知を行ってもよい。
According to the above configuration, the user of the display device can easily understand the individual identification of the monitoring target included in the monitoring video by looking at the image displayed on the display device.
In the above-mentioned monitoring target identification device, when the monitoring target image processing unit specifies a position, and the shooting target includes a target whose correspondence with the monitoring target cannot be specified by the individual identification unit, an external notification is sent. You can go.

上記構成によれば、第1通信機を保持していない対象、すなわち、監視領域に存在することが想定されていない対象が監視領域に侵入していることを、外部の監視者等が把握することができる。 According to the above configuration, an external monitor or the like understands that an object that does not hold the first communication device, that is, an object that is not supposed to exist in the monitoring area is invading the monitoring area. be able to.

上記監視対象識別装置において、前記監視対象識別装置は、表示装置と接続され、前記監視映像処理部が位置を特定した前記撮影対象のなかに、前記個体識別部による前記監視対象との対応の特定ができない対象である未確認対象が含まれるとき、前記監視映像と、前記監視映像における前記未確認対象の位置を示す情報とを含む画像の表示データを生成する表示データ生成部と、前記表示データを前記表示装置に出力する出力部と、を備えてもよい。 In the monitoring target identification device, the monitoring target identification device is connected to a display device, and the correspondence between the monitoring target and the monitoring target is specified by the individual identification unit in the imaging targets whose positions are specified by the monitoring image processing unit. When an unconfirmed target that is a target that cannot be performed is included, a display data generation unit that generates display data of an image including the monitoring video and information indicating the position of the unconfirmed target in the monitoring video, and the display data An output unit for outputting to the display device may be provided.

上記構成によれば、表示装置の利用者は、表示装置に表示される画像を見ることによって、監視領域に存在することが想定されていない対象が監視領域に侵入していることを視覚的に把握できる。したがって、こうした対象の侵入に配する対処を的確に進めやすい。 According to the above configuration, the user of the display device visually recognizes that an object not supposed to exist in the monitoring area is invading the monitoring area by looking at the image displayed on the display device. I can figure it out. Therefore, it is easy to properly deal with such an intrusion of the target.

上記監視対象識別装置において、前記監視映像処理部による前記撮影対象の特定の処理には、人工知能が利用されてもよい。
上記構成によれば、監視映像に含まれる撮影対象をより正確に特定することができる。
In the monitoring target identification device, artificial intelligence may be used for the process of specifying the shooting target by the monitoring video processing unit.
According to the above configuration, it is possible to more accurately specify the shooting target included in the surveillance video.

上記監視対象識別装置において、前記電波の状態には、前記第2通信機が検出した前記電波の強度および方向が含まれてもよい。
上記構成によれば、第2通信機に対する第1通信機の距離と方向との算出が可能であるため、第1通信機の位置の的確な特定が可能である。
In the monitoring target identification device, the state of the radio wave may include the intensity and direction of the radio wave detected by the second communication device.
According to the above configuration, the distance and the direction of the first communication device with respect to the second communication device can be calculated, so that the position of the first communication device can be accurately specified.

本発明によれば、監視映像に含まれる対象の個体識別を可能とすることができる。 According to the present invention, it is possible to enable individual identification of a target included in a surveillance video.

監視対象識別システムの一実施形態について、監視対象識別システムの全体構成を示す図。The figure which shows the whole structure of a monitoring target identification system about one Embodiment of a monitoring target identification system. 一実施形態の監視情報管理サーバ、登録端末、および、監視端末の各々の構成を示す図。The figure which shows each structure of the monitoring information management server of one embodiment, a registration terminal, and a monitoring terminal. 一実施形態の発信機管理データの一例を示す図。The figure which shows an example of the transmitter management data of one embodiment. 一実施形態の監視映像表示システムにおける発信機管理データの登録の手順を示すシーケンスチャート。3 is a sequence chart showing a procedure of registering transmitter management data in the surveillance video display system according to the embodiment. 一実施形態の監視映像表示システムにおける監視対象の個体識別の手順を示すシーケンスチャート。The sequence chart which shows the procedure of individual identification of the surveillance subject in the surveillance video display system of one embodiment. 一実施形態の監視映像表示システムにおいて特定される発信機の位置を模式的に示す図。The figure which shows typically the position of the transmitter specified in the surveillance video display system of one embodiment. 一実施形態の監視映像表示システムにおける発信機の配置の一例を示す図。The figure which shows an example of arrangement|positioning of the transmitter in the surveillance video display system of one Embodiment. 一実施形態の監視映像表示システムにおける発信機の配置の一例を示す図。The figure which shows an example of arrangement|positioning of the transmitter in the surveillance video display system of one Embodiment. 一実施形態の監視映像表示システムにおいて特定される撮影対象の位置を模式的に示す図。The figure which shows typically the position of the imaging|photography target pinpointed in the surveillance video display system of one Embodiment. 一実施形態の監視映像表示システムにおける統合画像の表示の手順を示すシーケンスチャート。3 is a sequence chart showing a procedure for displaying an integrated image in the surveillance video display system according to the embodiment. 一実施形態の監視映像表示システムにおける統合画像の一例を示す図。The figure which shows an example of the integrated image in the surveillance video display system of one Embodiment. 一実施形態の監視映像表示システムにおける統合画像の一例を示す図。The figure which shows an example of the integrated image in the surveillance video display system of one Embodiment.

図1〜図12を参照して、監視対象識別装置、監視対象識別システム、および、監視対象識別方法の一実施形態について説明する。
[監視対象識別システムの構成]
図1を参照して、監視対象識別システムの全体構成について説明する。
An embodiment of a monitoring target identification device, a monitoring target identification system, and a monitoring target identification method will be described with reference to FIGS.
[Configuration of monitoring target identification system]
The overall configuration of the monitoring target identification system will be described with reference to FIG.

図1が示すように、監視対象識別システムは、監視対象識別装置の一例である監視情報管理サーバ10、撮影端末20、受信機30、発信機40、登録端末50、および、監視端末60を含む。発信機40は、第1通信機の一例であり、受信機30は、第2通信機の一例である。撮影端末20、受信機30、発信機40、登録端末50、および、監視端末60の各々の数は、1以上であればよい。 As illustrated in FIG. 1, the monitoring target identification system includes a monitoring information management server 10, which is an example of a monitoring target identification device, a photographing terminal 20, a receiver 30, a transmitter 40, a registration terminal 50, and a monitoring terminal 60. .. The transmitter 40 is an example of a first communication device, and the receiver 30 is an example of a second communication device. The number of each of the photographing terminal 20, the receiver 30, the transmitter 40, the registration terminal 50, and the monitoring terminal 60 may be 1 or more.

監視情報管理サーバ10と、撮影端末20、受信機30、登録端末50、および、監視端末60とはネットワークに接続され、監視情報管理サーバ10は、これらの装置の各々とネットワークを通じて相互にデータの送信および受信を行う。各装置の通信に用いられるネットワークは、独立した複数のネットワークを含んでいてもよいし、共通した1つのネットワークであってもよい。これらのネットワークは、インターネット等の汎用通信回線であってもよいし、各装置の通信のための専用通信回線であってもよい。 The monitoring information management server 10, the photographing terminal 20, the receiver 30, the registration terminal 50, and the monitoring terminal 60 are connected to a network, and the monitoring information management server 10 mutually exchanges data with each of these devices via the network. Send and receive. The network used for communication of each device may include a plurality of independent networks, or may be one common network. These networks may be general-purpose communication lines such as the Internet, or may be dedicated communication lines for communication of each device.

撮影端末20は、動画の撮影機能と、ネットワークを通じて監視情報管理サーバ10にデータを送信する機能とを有する。撮影端末20は、ネットワークカメラに具体化される。撮影端末20は、撮影端末20の識別情報である撮影端末IDを記憶している。撮影端末IDは、撮影端末20ごとに固有の情報であり、撮影端末20に予め記憶されている。 The photographing terminal 20 has a moving image photographing function and a function of transmitting data to the monitoring information management server 10 via a network. The photographing terminal 20 is embodied as a network camera. The photographing terminal 20 stores a photographing terminal ID which is identification information of the photographing terminal 20. The photographing terminal ID is information unique to each photographing terminal 20, and is stored in the photographing terminal 20 in advance.

撮影端末20は、撮影によって生成された動画データを、撮影端末20が記憶している撮影端末IDとともに、逐次、すなわち、リアルタイムで監視情報管理サーバ10に送信する。 The photographing terminal 20 sequentially transmits the moving image data generated by photographing, together with the photographing terminal ID stored in the photographing terminal 20, to the monitoring information management server 10 in real time.

受信機30は、近距離での無線通信によって、発信機40からデータを受信する機能と、ネットワークを通じて監視情報管理サーバ10にデータを送信する機能とを有する。上記無線通信の通信規格としては、Bluetooth(登録商標)が用いられ、特に、BLE(Bluetooth Low Energy)が用いられることが好ましい。Bluetoothに対応する受信機30と発信機40との各々は、バッテリーを内蔵し、発信機40は、自発的に電波を発信して、当該電波を受信機30が受信する。 The receiver 30 has a function of receiving data from the transmitter 40 by wireless communication at a short distance and a function of transmitting data to the monitoring information management server 10 via a network. As the communication standard of the wireless communication, Bluetooth (registered trademark) is used, and particularly BLE (Bluetooth Low Energy) is preferably used. Each of the receiver 30 and the transmitter 40 compatible with Bluetooth has a built-in battery, and the transmitter 40 spontaneously emits a radio wave, and the receiver 30 receives the radio wave.

詳細には、受信機30は、発信機40の識別情報である発信機IDを発信機40から受信する。受信機30を基準とする範囲のなかで、発信機40の発する電波が受信機30に届く範囲が、受信機30の受信範囲である。受信機30は、その受信機30の受信範囲内に位置する発信機40から、発信機40が発する電波を搬送波として、所定の間隔で発信される発信機IDを受信する。 Specifically, the receiver 30 receives the transmitter ID, which is the identification information of the transmitter 40, from the transmitter 40. Within the range with the receiver 30 as a reference, the range in which the radio wave emitted from the transmitter 40 reaches the receiver 30 is the reception range of the receiver 30. The receiver 30 receives a transmitter ID transmitted from the transmitter 40 located within the reception range of the receiver 30 at a predetermined interval by using the radio wave emitted by the transmitter 40 as a carrier wave.

また、受信機30は、受信機30の識別情報である受信機IDを記憶している。受信機IDは、受信機30ごとに固有の情報であり、受信機30に予め記憶されている。
受信機30は、発信機40から発信機IDを受信すると、発信機IDを、受信機30が記憶している受信機IDとともに、監視情報管理サーバ10に送信する。このとき、受信機30は、発信機IDの受信の際に検出した発信機40からの電波の強度を示す電波強度情報と、上記電波が伝播してきた方向を示す電波方向情報とを、監視情報管理サーバ10に併せて送信する。
The receiver 30 also stores a receiver ID that is identification information of the receiver 30. The receiver ID is information unique to each receiver 30, and is stored in the receiver 30 in advance.
Upon receiving the transmitter ID from the transmitter 40, the receiver 30 transmits the transmitter ID to the monitoring information management server 10 together with the receiver ID stored in the receiver 30. At this time, the receiver 30 receives the radio wave intensity information indicating the intensity of the radio wave from the transmitter 40 detected at the time of receiving the transmitter ID, and the radio wave direction information indicating the direction in which the radio wave has propagated, as monitoring information. It is also transmitted to the management server 10.

撮影端末20と受信機30とは、監視が行われる領域である監視領域に設置される。監視領域は、例えば、工場、工事現場、医療現場等において作業者が各種の作業を行う領域であり、こうした作業者である監視対象の行動の監視が望まれる領域である。 The imaging terminal 20 and the receiver 30 are installed in a monitoring area, which is an area where monitoring is performed. The monitoring area is an area in which a worker performs various kinds of work in, for example, a factory, a construction site, a medical site, or the like, and is a region in which it is desired to monitor the behavior of a monitoring target of such an operator.

監視領域は、区画された複数の部屋を含んでいてもよいし、区切りのない連続した1つの空間であってもよいし、互いに離間した複数の空間を含んでいてもよい。また、監視領域は屋内であってもよいし、屋外であってもよい。 The monitoring area may include a plurality of partitioned rooms, may be a single continuous space without divisions, or may include a plurality of spaces separated from each other. The monitoring area may be indoors or outdoors.

受信機30は、その受信範囲が、監視領域内に広がるように設置される。監視対象識別システムが複数の受信機30を含む場合、複数の受信機30は、各受信機30の受信範囲が、監視領域内の互いに異なる領域となり、これらの受信機30の受信範囲を合わせた範囲が監視領域の全域に広がるように、設置される。なお、各受信機30の受信範囲の一部は、他の受信機30の受信範囲の一部と重なっていてもよい。 The receiver 30 is installed so that its reception range extends within the monitoring area. When the monitoring target identification system includes a plurality of receivers 30, the plurality of receivers 30 have different reception ranges of the respective receivers 30 in the monitoring area, and the reception ranges of the receivers 30 are combined. It is installed so that the range extends over the entire surveillance area. Note that a part of the reception range of each receiver 30 may overlap a part of the reception range of another receiver 30.

撮影端末20によって撮影される範囲が撮影範囲であり、撮影端末20は、その撮影範囲が、監視領域内に広がるように設置される。監視対象識別システムが複数の撮影端末20を含む場合、複数の撮影端末20は、各撮影端末20の撮影範囲が、監視領域内の互いに異なる領域となり、これらの撮影端末20の撮影範囲を合わせた範囲が監視領域の全域に広がるように、設置される。なお、各撮影端末20の撮影範囲の一部は、他の撮影端末20の撮影範囲の一部と重なっていてもよい。 The shooting range of the shooting terminal 20 is the shooting range, and the shooting terminal 20 is installed so that the shooting range extends within the monitoring area. When the surveillance target identification system includes a plurality of photographing terminals 20, the photographing ranges of the photographing terminals 20 are different from each other in the monitoring area, and the photographing ranges of the photographing terminals 20 are combined. It is installed so that the range extends over the entire surveillance area. A part of the shooting range of each shooting terminal 20 may overlap with a part of the shooting range of another shooting terminal 20.

撮影端末20ごとの撮影範囲の各々は、1以上の受信機30の受信範囲と重なる。以下では、例として、1つの撮影端末20の撮影範囲と1つの受信機30の受信範囲とが重なる場合について説明する。すなわち、1つの撮影端末20と1つの受信機30とが対応付けられる。 Each of the image capturing ranges of the image capturing terminals 20 overlaps the receiving range of one or more receivers 30. Hereinafter, as an example, a case will be described in which the shooting range of one shooting terminal 20 and the reception range of one receiver 30 overlap. That is, one photographing terminal 20 and one receiver 30 are associated with each other.

具体的には、例えば、図1が示すように、区画された2つの領域である領域RAと領域RBとから監視領域が構成され、領域RAには撮影端末IDがC01である撮影端末20が設置され、領域RBには撮影端末IDがC02である撮影端末20が設置されている。すなわち、C01の撮影端末20によって領域RAが撮影され、C02の撮影端末20によって領域RBが撮影される。そして、領域RAには、受信機IDがBR01である受信機30が設置され、領域RBには、受信機IDがBR02である受信機30が設置されている。BR01の受信機30の受信範囲は、領域RAの全体とほぼ重なり、すなわち、C01の撮影端末20の撮影範囲の全体とほぼ重なる。BR02の受信機30の受信範囲は、領域RBの全体とほぼ重なり、すなわち、C02の撮影端末20の撮影範囲の全体とほぼ重なる。このように、撮影範囲と受信範囲との重なりによって、撮影端末20と受信機30とが対応付けられる。 Specifically, for example, as shown in FIG. 1, a monitoring area is composed of two partitioned areas, an area RA and an area RB, and an imaging terminal 20 having an imaging terminal ID C01 is provided in the area RA. The shooting terminal 20 having the shooting terminal ID C02 is installed in the area RB. That is, the area RA is imaged by the imaging terminal 20 of C01, and the area RB is imaged by the imaging terminal 20 of C02. The receiver 30 having the receiver ID BR01 is installed in the area RA, and the receiver 30 having the receiver ID BR02 is installed in the area RB. The reception range of the receiver 30 of BR01 substantially overlaps the entire area RA, that is, substantially the entire imaging range of the imaging terminal 20 of C01. The reception range of the receiver 30 of BR02 substantially overlaps the entire region RB, that is, the reception range of the photographing terminal 20 of C02 substantially overlaps. In this way, the photographing terminal 20 and the receiver 30 are associated with each other by the overlapping of the photographing range and the receiving range.

発信機40は、受信機30に対応した無線通信によるデータの送信機能を有する。具体的には、発信機40は、データの搬送波となる電波を継続的に発信し、当該データとして発信機IDを所定の間隔で発信する。発信機IDは、発信機40自体の存在を発信機40の周囲に通知するための信号として機能する。発信機IDは、発信機40ごとに固有の情報であり、発信機40に予め記憶されている。 The transmitter 40 has a function of transmitting data by wireless communication corresponding to the receiver 30. Specifically, the transmitter 40 continuously emits a radio wave serving as a carrier wave of data, and transmits a transmitter ID as the data at predetermined intervals. The transmitter ID functions as a signal for notifying the vicinity of the transmitter 40 of the existence of the transmitter 40 itself. The transmitter ID is information unique to each transmitter 40 and is stored in the transmitter 40 in advance.

発信機40は、監視対象、すなわち、監視領域で作業を行う作業者に携帯される。発信機40は、監視対象ごとに1つずつ割り当てられる。
登録端末50は、監視対象と発信機40との対応付けに用いられる端末であり、発信機40に対応した無線通信によるデータの受信機能と、ネットワークを通じて監視情報管理サーバ10との間でデータを送受信する機能とを有する。例えば、登録端末50は、パーソナルコンピュータやタブレット端末やスマートフォンに具体化される。
The transmitter 40 is carried by a monitoring target, that is, an operator who works in the monitoring area. One transmitter 40 is assigned to each monitoring target.
The registration terminal 50 is a terminal used for associating the monitoring target with the transmitter 40, and has a function of receiving data by wireless communication corresponding to the transmitter 40, and stores data between the monitoring information management server 10 and the network. It has a function of transmitting and receiving. For example, the registration terminal 50 is embodied in a personal computer, a tablet terminal, or a smartphone.

監視端末60は、表示装置の一例である。監視端末60は、撮影端末20が監視領域内を撮影した動画である監視映像の確認に用いられる端末であり、ネットワークを通じて監視情報管理サーバ10との間でデータを送受信する機能、および、監視情報管理サーバ10から受信したデータに基づいて画像を表示する機能を有する。監視端末60は、例えば、パーソナルコンピュータやタブレット端末やスマートフォンに具体化される。 The monitoring terminal 60 is an example of a display device. The monitoring terminal 60 is a terminal used to confirm a monitoring video that is a moving image captured by the imaging terminal 20 in the monitoring area, and has a function of transmitting and receiving data to and from the monitoring information management server 10 through a network, and the monitoring information. It has a function of displaying an image based on the data received from the management server 10. The monitoring terminal 60 is embodied in, for example, a personal computer, a tablet terminal, or a smartphone.

監視情報管理サーバ10は、撮影端末20および受信機30から受信した情報に基づき、監視映像に含まれる監視対象の個体識別を行うサーバである。また、監視情報管理サーバ10は、監視端末60からの要求に応じて生成した表示データを監視端末60に送信する。表示データは、監視映像を含む画像である統合画像を監視端末60に表示させるためのデータである。 The monitoring information management server 10 is a server that performs individual identification of the monitoring target included in the monitoring video based on the information received from the photographing terminal 20 and the receiver 30. Moreover, the monitoring information management server 10 transmits the display data generated in response to the request from the monitoring terminal 60 to the monitoring terminal 60. The display data is data for displaying the integrated image, which is an image including the monitoring video, on the monitoring terminal 60.

[各装置の詳細構成]
図2を参照して、監視情報管理サーバ10、登録端末50、および、監視端末60の詳細構成について説明する。
[Detailed configuration of each device]
The detailed configurations of the monitoring information management server 10, the registration terminal 50, and the monitoring terminal 60 will be described with reference to FIG.

監視情報管理サーバ10は、通信部11と、記憶部12と、制御部13とを備えている。
通信部11は、ネットワークを通じて、監視情報管理サーバ10と上述の各装置との接続処理を実行し、監視情報管理サーバ10と各装置との間でデータの送信および受信を行う。通信部11は、撮影端末20および受信機30から情報を受信する受信部、および、表示データを監視端末60に出力する出力部として機能する。
The monitoring information management server 10 includes a communication unit 11, a storage unit 12, and a control unit 13.
The communication unit 11 executes a connection process between the monitoring information management server 10 and each of the above-described devices via a network, and transmits and receives data between the monitoring information management server 10 and each of the devices. The communication unit 11 functions as a receiving unit that receives information from the photographing terminal 20 and the receiver 30, and an output unit that outputs display data to the monitoring terminal 60.

記憶部12は、ハードディスクドライブ等の不揮発性メモリを含む構成を有し、制御部13が実行する処理に必要なプログラムやデータを記憶している。こうしたデータの一部として、記憶部12は、受信機管理データ12a、発信機管理データ12b、監視映像データ12c、および、検知データ12dを記憶している。 The storage unit 12 has a configuration including a non-volatile memory such as a hard disk drive, and stores programs and data necessary for the processing executed by the control unit 13. As part of such data, the storage unit 12 stores receiver management data 12a, transmitter management data 12b, monitoring video data 12c, and detection data 12d.

受信機管理データ12aは、受信範囲と撮影範囲とが重なる受信機30と撮影端末20との対応付けを管理するためのデータを含む。例えば、受信機管理データ12aにおいては、受信機IDと撮影端末IDとが対応付けられている。また、受信機管理データ12aは、互いに対応付けられている受信機30と撮影端末20とについて、受信機30および撮影端末20が位置する空間内の位置を、例えば三次元直交座標系を用いて管理するためのデータを含む。 The receiver management data 12a includes data for managing the correspondence between the receiver 30 and the shooting terminal 20 in which the reception range and the shooting range overlap. For example, in the receiver management data 12a, the receiver ID and the photographing terminal ID are associated with each other. Further, the receiver management data 12a indicates the position in the space where the receiver 30 and the photographing terminal 20 are located with respect to the receiver 30 and the photographing terminal 20 which are associated with each other, for example, using a three-dimensional orthogonal coordinate system. Contains data for management.

発信機管理データ12bは、発信機40と、発信機40を保持する監視対象との対応付けを管理するためのデータであり、発信機管理データ12bでは、発信機IDと、監視対象に関する情報である対象情報とが対応付けられている。 The transmitter management data 12b is data for managing the association between the transmitter 40 and the monitoring target that holds the transmitter 40. The transmitter management data 12b includes a transmitter ID and information about the monitoring target. It is associated with certain target information.

監視映像データ12cは、撮影端末20にて撮影された監視映像を示す動画データを、監視映像を撮影した撮影端末20の撮影端末IDと対応付けて管理するデータである。上記動画データは、監視映像の撮影された時刻を示す時刻情報を含む。 The monitoring video data 12c is data for managing moving image data showing the monitoring video captured by the imaging terminal 20 in association with the imaging terminal ID of the imaging terminal 20 that has captured the monitoring video. The moving image data includes time information indicating the time when the surveillance video was captured.

検知データ12dは、監視情報管理サーバ10が、撮影端末20による監視映像の撮影中に受信機30から取得した情報、および、監視情報管理サーバ10が、上記情報と監視映像との解析によって取得した情報を含む。具体的には、検知データ12dは、受信機30が受信した発信機IDおよびその発信機IDの受信が継続されていた期間、監視映像に含まれる監視対象の識別結果等を含む。 The detection data 12d is acquired by the monitoring information management server 10 from the receiver 30 while the monitoring video is being captured by the imaging terminal 20, and is acquired by the monitoring information management server 10 by analyzing the information and the monitoring video. Contains information. Specifically, the detection data 12d includes a transmitter ID received by the receiver 30, a period during which the transmitter ID is continuously received, an identification result of a monitoring target included in the monitoring video, and the like.

制御部13は、CPUや、RAM等の揮発性メモリを含む構成を有し、記憶部12に記憶されたプログラムやデータに基づいて、通信部11による通信の制御、記憶部12における情報の読み出しや書き込み、各種の演算処理等、監視情報管理サーバ10が備える各部の制御を行う。こうした制御部13は、管理データ登録部13a、監視映像処理部13b、受信機情報処理部13c、および、表示データ生成部13dを備えている。 The control unit 13 has a configuration including a CPU and a volatile memory such as a RAM, and controls communication by the communication unit 11 and reads information from the storage unit 12 based on programs and data stored in the storage unit 12. Controls each unit included in the monitoring information management server 10, such as writing, writing, and various arithmetic processes. The control unit 13 includes a management data registration unit 13a, a monitor video processing unit 13b, a receiver information processing unit 13c, and a display data generation unit 13d.

管理データ登録部13aは、登録端末50から監視情報管理サーバ10が受信した発信機IDと対象情報とを対応付けて、発信機管理データ12bとして記憶部12に記憶させる。また、管理データ登録部13aは、受信機管理データ12aを生成して記憶部12に記憶させる。受信機管理データ12aの生成に要する受信機IDや撮影端末IDの入力は、監視情報管理サーバ10とネットワークを介して接続された任意のコンピュータ端末を通じて行われればよい。 The management data registration unit 13a associates the transmitter ID received by the monitoring information management server 10 from the registration terminal 50 with the target information, and causes the storage unit 12 to store the transmitter management data 12b. Further, the management data registration unit 13a generates the receiver management data 12a and stores it in the storage unit 12. The input of the receiver ID and the photographing terminal ID required for generating the receiver management data 12a may be performed through any computer terminal connected to the monitoring information management server 10 via the network.

受信機管理データ12aは、撮影端末20による監視領域の撮影が開始される前に構築され、発信機管理データ12bは、監視対象が監視領域に入る前に構築される。
監視映像処理部13bは、撮影端末20から監視情報管理サーバ10が受信した監視映像を解析して、監視映像に含まれる撮影対象の種類を識別し、撮影対象の位置を特定する。こうした識別には、人工知能(AI:Artificial Intelligence)が利用されることが好ましい。具体的には、例えば、YOLO等の物体検出(Real Time Object Detection)技術が用いられる。撮影対象の種類とは、例えば、人物、所定の物品といった分類であり、識別される撮影対象の種類は、人工知能のプログラムにて予め設定されていればよい。監視対象が人物である場合、監視映像処理部13bは、監視映像に含まれる対象のうち、少なくとも人物である撮影対象を検出する。
The receiver management data 12a is constructed before the photographing of the surveillance area by the photographing terminal 20 is started, and the transmitter management data 12b is constructed before the surveillance target enters the surveillance area.
The monitoring video processing unit 13b analyzes the monitoring video received by the monitoring information management server 10 from the shooting terminal 20, identifies the type of the shooting target included in the monitoring video, and specifies the position of the shooting target. For such identification, it is preferable to use artificial intelligence (AI). Specifically, for example, an object detection (Real Time Object Detection) technique such as YOLO is used. The type of the imaging target is, for example, a classification such as a person or a predetermined article, and the type of the imaging target to be identified may be set in advance by an artificial intelligence program. When the monitoring target is a person, the monitoring video processing unit 13b detects at least a shooting target that is a person among the targets included in the monitoring video.

また、監視映像処理部13bは、監視映像を示す動画データを撮影端末IDと対応付けて、監視映像データ12cとして記憶部12に記憶させる。
受信機情報処理部13cは、通信機特定部および個体識別部として機能する。具体的には、受信機情報処理部13cは、受信機30から監視情報管理サーバ10が受信した電波強度情報および電波方向情報を用いて、受信機30が受信した発信機IDに対応する発信機40の位置を特定する。さらに、受信機情報処理部13cは、発信機40の位置の特定結果と、監視映像処理部13bによる撮影対象の検出結果と、発信機管理データ12bとを照らし合わせて、監視映像に含まれる監視対象の個体識別を行う。
Further, the monitoring video processing unit 13b stores the moving image data indicating the monitoring video in the storage unit 12 as the monitoring video data 12c in association with the shooting terminal ID.
The receiver information processing unit 13c functions as a communication device identification unit and an individual identification unit. Specifically, the receiver information processing unit 13c uses the radio wave intensity information and the radio wave direction information received by the monitoring information management server 10 from the receiver 30, and corresponds to the transmitter ID received by the receiver 30. Identify 40 positions. Further, the receiver information processing unit 13c compares the result of specifying the position of the transmitter 40, the detection result of the shooting target by the monitoring video processing unit 13b, and the transmitter management data 12b, and the monitoring included in the monitoring video. Perform individual identification of the target.

また、受信機情報処理部13cは、受信機30から受信した情報や、監視対象の個体識別の結果を、検知データ12dとして記憶部12に記憶させる。監視映像データ12cと検知データ12dとは、撮影端末20による監視領域の撮影中に逐次構築される。 Further, the receiver information processing unit 13c stores the information received from the receiver 30 and the result of individual identification of the monitoring target in the storage unit 12 as the detection data 12d. The monitoring video data 12c and the detection data 12d are sequentially constructed while the shooting terminal 20 is shooting the monitoring area.

表示データ生成部13dは、監視端末60からの要求に応じて、記憶部12に記憶されている各データを用いて、表示データを生成する。表示データは、通信部11を介して、監視端末60に送信される。 The display data generation unit 13d generates display data using each data stored in the storage unit 12 in response to a request from the monitoring terminal 60. The display data is transmitted to the monitoring terminal 60 via the communication unit 11.

なお、制御部13において、管理データ登録部13a、監視映像処理部13b、受信機情報処理部13c、および、表示データ生成部13dの各々は、複数のCPUや、RAM等からなるメモリ等の各種のハードウェアと、これらを機能させるソフトウェアとによって各別に具体化されてもよく、あるいは、共通する1つのハードウェアに複数の機能を与えるソフトウェアによって具体化されてもよい。こうしたソフトウェアは、監視情報管理プログラムとして、記憶部12に記憶される。 In the control unit 13, each of the management data registration unit 13a, the monitor video processing unit 13b, the receiver information processing unit 13c, and the display data generation unit 13d has a plurality of CPUs, various memories such as RAMs, and the like. Hardware and software that causes them to be embodied separately, or may be embodied by software that imparts a plurality of functions to one common hardware. Such software is stored in the storage unit 12 as a monitoring information management program.

登録端末50は、通信を制御する通信部51、利用者の操作を受け付ける操作部52、画像を表示する表示部53、および、プログラムやデータを記憶する記憶部54、これらの各部の制御や演算処理を記憶部54に記憶されたプログラムやデータに基づいて行う制御部55を備えている。記憶部54は、不揮発性メモリを含む構成を有し、制御部55は、CPUおよびRAM等の揮発性メモリを含む構成を有する。 The registration terminal 50 includes a communication unit 51 that controls communication, an operation unit 52 that receives user operations, a display unit 53 that displays images, and a storage unit 54 that stores programs and data. The control unit 55 is provided which performs processing based on the programs and data stored in the storage unit 54. The storage unit 54 has a configuration including a non-volatile memory, and the control unit 55 has a configuration including a volatile memory such as a CPU and a RAM.

通信部51は、ネットワークを通じて、登録端末50と監視情報管理サーバ10とを接続し、これらの装置の間でのデータの送受信を行う機能と、発信機40に対応した近距離での無線通信を利用して、登録端末50と発信機40とを接続し、これらの装置の間でのデータの送受信を行う機能とを有している。 The communication unit 51 connects the registration terminal 50 and the monitoring information management server 10 via a network, and performs a function of transmitting and receiving data between these devices and a wireless communication at a short distance corresponding to the transmitter 40. It has a function of connecting the registration terminal 50 and the transmitter 40 by using it and transmitting and receiving data between these devices.

通信部51は、上記無線通信によって、発信機40から発信機IDを受信する。また、操作部52に対する操作を通じて、登録端末50には対象情報が入力され、制御部55は、発信機IDと対象情報とを、通信部51から監視情報管理サーバ10に送信させる。 The communication unit 51 receives the transmitter ID from the transmitter 40 by the wireless communication. Further, the target information is input to the registration terminal 50 through the operation on the operation unit 52, and the control unit 55 causes the communication unit 51 to transmit the transmitter ID and the target information to the monitoring information management server 10.

監視端末60は、通信を制御する通信部61、利用者の操作を受け付ける操作部62、画像を表示する表示部63、プログラムやデータを記憶する記憶部64、および、これらの各部の制御や演算処理を記憶部64に記憶されたプログラムやデータに基づいて行う制御部65を備えている。記憶部64は、不揮発性メモリを含む構成を有し、制御部65は、CPUおよびRAM等の揮発性メモリを含む構成を有する。 The monitoring terminal 60 includes a communication unit 61 that controls communication, an operation unit 62 that receives a user operation, a display unit 63 that displays an image, a storage unit 64 that stores programs and data, and controls and calculations of these units. A control unit 65 that performs processing based on a program or data stored in the storage unit 64 is provided. The storage unit 64 has a configuration including a non-volatile memory, and the control unit 65 has a configuration including a volatile memory such as a CPU and a RAM.

通信部61は、ネットワークを通じて、監視端末60と監視情報管理サーバ10とを接続し、これらの装置の間でのデータの送受信を行う機能を有する。また、通信部61は、監視情報管理サーバ10から表示データを受信し、制御部65は、表示データを用いて表示部63に画像を表示させる。 The communication unit 61 has a function of connecting the monitoring terminal 60 and the monitoring information management server 10 via a network and transmitting and receiving data between these devices. The communication unit 61 also receives display data from the monitoring information management server 10, and the control unit 65 causes the display unit 63 to display an image using the display data.

なお、登録端末50の制御部55、および、監視端末60の制御部65の各々の機能は複数のCPUや、RAM等からなるメモリ等の各種のハードウェアと、これらを機能させるソフトウェアとによって各別に具体化されてもよく、あるいは、共通する1つのハードウェアに複数の機能を与えるソフトウェアによって具体化されてもよい。こうしたソフトウェアは、各端末にインストールされたアプリケーションソフトウェアであってもよいし、監視情報管理サーバ10からウェブアプリケーションとして提供されたアプリケーションソフトウェアであってもよい。 Each function of the control unit 55 of the registration terminal 50 and the control unit 65 of the monitoring terminal 60 depends on various hardware such as a plurality of CPUs and memories such as RAMs, and software that causes them to function. It may be embodied separately, or may be embodied by software that provides a plurality of functions to one common hardware. Such software may be application software installed in each terminal or application software provided as a web application from the monitoring information management server 10.

また、登録端末50の担う機能と監視端末60の担う機能とが、1つのコンピュータ端末によって実現されてもよい。すなわち、登録端末50と監視端末60とは同一の端末であってもよい。 Further, the function of the registration terminal 50 and the function of the monitoring terminal 60 may be realized by one computer terminal. That is, the registration terminal 50 and the monitoring terminal 60 may be the same terminal.

[発信機管理データの構成]
図3を参照して、監視情報管理サーバ10に記憶される発信機管理データ12bのデータ構成について説明する。
[Composition of transmitter management data]
The data structure of the transmitter management data 12b stored in the monitoring information management server 10 will be described with reference to FIG.

図3が示すように、発信機管理データ12bは、発信機IDと対象情報とを含み、発信機IDと対象情報とは互いに対応付けられている。対象情報には、監視対象を識別可能に示す情報である対象識別情報が含まれる。対象識別情報は、例えば、監視対象である作業員ごとに割り当てられた識別情報である対象IDや、監視対象の氏名、ニックネーム等である。対象情報は、対象識別情報に加えて、監視対象の属性を示す情報をさらに含んでいてもよい。監視対象の属性を示す情報は、例えば、監視対象の属するグループや、監視対象の役職や役割等を含む。 As shown in FIG. 3, the transmitter management data 12b includes a transmitter ID and target information, and the transmitter ID and target information are associated with each other. The target information includes target identification information that is information that allows the monitoring target to be identified. The target identification information is, for example, a target ID that is identification information assigned to each worker who is a monitoring target, a name of a monitoring target, a nickname, and the like. The target information may further include information indicating the attribute of the monitoring target in addition to the target identification information. The information indicating the attribute of the monitoring target includes, for example, the group to which the monitoring target belongs, the post or role of the monitoring target, and the like.

発信機管理データ12bにて、発信機IDと対応付けられている対象情報は、その発信機IDを有する発信機40が割り当てられて、当該発信機40を保持している監視対象についての情報である。例えば、図3に示す例では、BC01の発信機IDが、対象情報における対象識別情報として、P01の対象IDおよび「秋葉一郎」という監視対象の氏名と対応付けられている。これは、BC01という発信機IDの発信機40を保持する監視対象に割り当てられた対象IDがP01であり、当該監視対象の氏名が「秋葉一郎」であることを示す。 The target information associated with the transmitter ID in the transmitter management data 12b is information about the monitoring target to which the transmitter 40 having the transmitter ID is assigned and which holds the transmitter 40. is there. For example, in the example illustrated in FIG. 3, the transmitter ID of BC01 is associated with the target ID of P01 and the name of the monitoring target “Ichiro Akiba” as the target identification information in the target information. This indicates that the target ID assigned to the monitoring target that holds the transmitter 40 having the transmitter ID BC01 is P01, and the name of the monitoring target is “Ichiro Akiba”.

対象識別情報は、発信機IDごとに異なる。一方、監視対象の属性を示す情報は、複数の発信機IDに対して共通に設定されていてもよい。
[監視対象識別システムの動作]
図4〜図12を参照して、監視対象識別システムの動作、すなわち、監視対象識別方法の手順について説明する。監視対象識別システムの動作には、発信機管理データ12bの登録の処理と、監視対象の個体識別の処理と、統合画像の表示の処理とが含まれる。なお、受信機管理データ12aは、撮影端末20による監視領域の撮影が開始される前に適宜のタイミングで構築される。
The target identification information differs for each transmitter ID. On the other hand, the information indicating the attribute of the monitoring target may be commonly set for a plurality of transmitter IDs.
[Operation of the monitoring target identification system]
The operation of the monitoring target identification system, that is, the procedure of the monitoring target identification method will be described with reference to FIGS. The operation of the monitoring target identification system includes a process of registering the transmitter management data 12b, a process of individual identification of the monitoring target, and a process of displaying an integrated image. The receiver management data 12a is constructed at an appropriate timing before the shooting terminal 20 starts shooting the monitoring area.

まず、発信機管理データ12bの登録の処理について、図4を参照して説明する。発信機管理データ12bの登録の処理は、換言すれば、監視対象の登録の処理であり、例えば、工場等において作業者が作業を開始する前に、登録端末50と監視情報管理サーバ10との協働により行われる。図4に示す処理は、監視対象となる作業者ごとに行われる。図4に示す各ステップの処理は、例えば、所定の操作に基づき監視対象の登録のための画面が登録端末50に表示され、この画面の指示に従った操作を作業者や登録の管理者が行うことにより、実施される。 First, the process of registering the transmitter management data 12b will be described with reference to FIG. The process of registering the transmitter management data 12b is, in other words, the process of registering the monitoring target, and for example, before the worker starts the work in the factory or the like, the registration terminal 50 and the monitoring information management server 10 are It is done in collaboration. The process shown in FIG. 4 is performed for each worker to be monitored. In the process of each step shown in FIG. 4, for example, a screen for registering a monitoring target is displayed on the registration terminal 50 based on a predetermined operation, and the operator or the registration manager performs an operation according to the instruction on the screen. It is carried out by doing.

図4が示すように、登録端末50の操作を通じて、登録端末50に対象情報が入力される(ステップS10)。すなわち、監視対象となる作業者の氏名等が登録端末50に入力される。なお、登録端末50に入力される対象情報は、発信機管理データ12bにて発信機IDに対応付けられる対象情報の一部であってもよく、例えば、対象IDは登録端末50に入力されず、発信機管理データ12bの登録時に監視情報管理サーバ10の管理データ登録部13aによって割り当てられればよい。 As shown in FIG. 4, the target information is input to the registration terminal 50 through the operation of the registration terminal 50 (step S10). That is, the name of the worker to be monitored is input to the registration terminal 50. The target information input to the registration terminal 50 may be a part of the target information associated with the transmitter ID in the transmitter management data 12b. For example, the target ID is not input to the registration terminal 50. It may be assigned by the management data registration unit 13a of the monitoring information management server 10 when the transmitter management data 12b is registered.

続いて、監視対象となる作業者に割り当てられる発信機40が登録端末50に近づけられることに基づいて、近距離での無線通信を通じて、登録端末50は、この発信機40の発信機IDを取得する(ステップS11)。 Then, based on the fact that the transmitter 40 assigned to the worker to be monitored is brought close to the registration terminal 50, the registration terminal 50 acquires the transmitter ID of the transmitter 40 through wireless communication at a short distance. Yes (step S11).

なお、対象情報の入力と発信機IDの取得との順序は上記順序に限定されず、登録端末50が発信機IDを取得した後に、登録端末50に対象情報が入力されてもよい。
対象情報と発信機IDとを取得すると、登録端末50は、ネットワークを通じて、対象情報と発信機IDとを監視情報管理サーバ10に送信する(ステップS12)。対象情報と発信機IDとを受信すると、監視情報管理サーバ10の管理データ登録部13aは、対象情報と発信機IDとを対応付けて、発信機管理データ12bとして記憶部12に記憶させる。このとき、管理データ登録部13aは対象情報と発信機IDとの組ごとに、対象IDを割り当て、対象IDを対象情報に含めて、発信機管理データ12bを生成する。
The order of inputting the target information and acquiring the transmitter ID is not limited to the above order, and the target information may be input to the registration terminal 50 after the registration terminal 50 acquires the transmitter ID.
Upon acquiring the target information and the transmitter ID, the registration terminal 50 transmits the target information and the transmitter ID to the monitoring information management server 10 via the network (step S12). Upon receiving the target information and the transmitter ID, the management data registration unit 13a of the monitoring information management server 10 stores the target information and the transmitter ID in the storage unit 12 as transmitter management data 12b in association with each other. At this time, the management data registration unit 13a assigns the target ID to each set of the target information and the transmitter ID, includes the target ID in the target information, and generates the transmitter management data 12b.

これにより、監視対象の登録、すなわち、発信機管理データ12bの登録が完了する。登録に用いられた発信機40は、監視対象である作業者、すなわち、登録端末50に入力された対象情報に対応する監視対象に渡され、監視対象に携帯される。 This completes the registration of the monitoring target, that is, the registration of the transmitter management data 12b. The transmitter 40 used for registration is delivered to the worker who is the monitoring target, that is, the monitoring target corresponding to the target information input to the registration terminal 50, and is carried by the monitoring target.

次に、監視対象の個体識別の処理について、図5〜図9を参照して説明する。
図5が示すように、撮影端末20は、監視領域の撮影を開始すると(ステップS20)、撮影によって生成された監視映像の動画データを、撮影端末20の撮影端末IDとともに、ネットワークを通じて、監視情報管理サーバ10に送信する(ステップS21)。
Next, a process of identifying an individual to be monitored will be described with reference to FIGS.
As shown in FIG. 5, when the photographing terminal 20 starts photographing the monitoring area (step S20), the moving image data of the monitoring video generated by the photographing together with the photographing terminal ID of the photographing terminal 20 is used to monitor information through the network. It transmits to the management server 10 (step S21).

また、受信機30は、受信範囲内に位置する発信機40から発信機IDを受信すると(ステップS22)、発信機IDと電波強度情報および電波方向情報とを、受信機30の受信機IDとともに、監視情報管理サーバ10に送信する(ステップS23)。こうした受信機30から監視情報管理サーバ10への発信機IDを含む情報の送信は、例えば、所定の間隔で、その時点において受信機30が受信しているすべての発信機IDについて、発信機IDと電波強度情報および電波方向情報とを監視情報管理サーバ10へ送信することにより行われる。 Further, when the receiver 30 receives the transmitter ID from the transmitter 40 located within the reception range (step S22), the transmitter ID, the radio wave intensity information, and the radio wave direction information together with the receiver ID of the receiver 30 are received. , To the monitoring information management server 10 (step S23). The transmission of the information including the transmitter ID from the receiver 30 to the monitoring information management server 10 can be performed, for example, at a predetermined interval with respect to all transmitter IDs received by the receiver 30 at that time. And the radio wave intensity information and the radio wave direction information are transmitted to the monitoring information management server 10.

監視映像の動画データを受信すると、監視情報管理サーバ10の監視映像処理部13bは、監視映像を解析して、撮影対象の種類ごとに、監視映像に含まれる撮影対象を検出する(ステップS24)。これにより、監視映像において、撮影対象の種類と位置とが特定される。具体的には、監視映像において、人物である撮影対象の位置が特定される。 When the video data of the monitoring video is received, the monitoring video processing unit 13b of the monitoring information management server 10 analyzes the monitoring video and detects a shooting target included in the monitoring video for each type of shooting target (step S24). .. As a result, the type and position of the shooting target are specified in the surveillance video. Specifically, the position of the photographing target, which is a person, is specified in the surveillance video.

受信機30から情報を受信すると、監視情報管理サーバ10の受信機情報処理部13cは、電波強度情報および電波方向情報を用いて、受信機30が受信した発信機IDに対応する発信機40の位置を特定する(ステップS25)。 Upon receiving the information from the receiver 30, the receiver information processing unit 13c of the monitoring information management server 10 uses the radio wave intensity information and the radio wave direction information to identify the transmitter 40 corresponding to the transmitter ID received by the receiver 30. The position is specified (step S25).

続いて、受信機情報処理部13cは、互いに対応付けられている撮影端末20と受信機30とについて、ステップS24の撮影対象の検出結果と、ステップS25の発信機40の位置の特定結果と、発信機管理データ12bとを用いて、監視映像に含まれる監視対象の個体識別を行う(ステップS26)。 Subsequently, the receiver information processing unit 13c, for the photographing terminal 20 and the receiver 30 that are associated with each other, the detection result of the photographing target in step S24, and the result of specifying the position of the transmitter 40 in step S25. Individual identification of the monitoring target included in the monitoring video is performed using the transmitter management data 12b (step S26).

監視情報管理サーバ10は、撮影端末20および受信機30から受信した各種のデータ、および、こうしたデータの解析によって得られた監視対象の個体識別結果等のデータを、記憶部12に記憶させる(ステップS27)。 The monitoring information management server 10 stores various data received from the imaging terminal 20 and the receiver 30 and data such as the individual identification result of the monitoring target obtained by analyzing such data in the storage unit 12 (step S27).

なお、ステップS24の処理とステップS25の処理との順序は特に限定されない。ステップS24〜ステップS27の処理は、撮影端末20および受信機30から監視情報管理サーバ10が動画データ等の情報を受信し続けている間、繰り返し行われる。 The order of the process of step S24 and the process of step S25 is not particularly limited. The processes of steps S24 to S27 are repeatedly performed while the monitoring information management server 10 continues to receive information such as moving image data from the photographing terminal 20 and the receiver 30.

また、監視対象識別システムが複数の撮影端末20を含む場合、上記ステップS21およびステップS24の処理は、撮影端末20ごとに行われ、監視対象識別システムが複数の受信機30を含む場合、上記ステップS23およびステップS25の処理は、受信機30ごとに行われる。そして、互いに対応付けられている撮影端末20と受信機30、すなわち、撮影範囲と受信範囲とが重なる撮影端末20と受信機30とについて、当該撮影端末20が撮影した監視映像に対するステップS24の撮影対象の検出結果と、当該受信機30が受信した発信機IDに対応するステップS25の発信機40の位置の特定結果とを用いて、ステップS26の監視対象の個体識別が行われる。撮影端末20と受信機30との対応付けは、受信機管理データ12aに基づいて特定される。 Further, when the monitoring target identification system includes a plurality of photographing terminals 20, the processing of the above steps S21 and S24 is performed for each photographing terminal 20, and when the monitoring target identification system includes a plurality of receivers 30, the above steps are performed. The processes of S23 and S25 are performed for each receiver 30. Then, regarding the photographing terminal 20 and the receiver 30 that are associated with each other, that is, the photographing terminal 20 and the receiver 30 in which the photographing range and the receiving range overlap, the photographing in step S24 for the monitoring video photographed by the photographing terminal 20. The individual identification of the monitoring target in step S26 is performed using the detection result of the target and the result of specifying the position of the transmitter 40 in step S25 corresponding to the transmitter ID received by the receiver 30. The association between the imaging terminal 20 and the receiver 30 is specified based on the receiver management data 12a.

図6〜図9を参照して、上記図5のフローにて説明したステップS24の撮影対象の検出およびステップS25の発信機40の位置の特定の処理と、ステップS26の監視対象の個体識別の処理との詳細を説明する。 With reference to FIGS. 6 to 9, the process of detecting the photographing target in step S24 and the process of specifying the position of the transmitter 40 in step S25 described in the flow of FIG. 5 and the individual identification of the monitoring target in step S26 are performed. The details of the processing will be described.

発信機40の位置の特定の処理では、受信機30が発信機IDを受信したときの、当該発信機IDを搬送する発信機40からの電波の電波強度情報および電波方向情報が用いられる。そして、図6が示すように、受信機30の位置を基準とした発信機40の位置が特定される。詳細には、電波強度情報を用いることにより、受信機30から発信機40までの距離Lが算出される。また、電波方向情報を用いることにより、受信機30を中心とする三次元直交座標系において、受信機30に対して発信機40が位置する方向が算出される。例えば、上記三次元直交座標系のx軸方向およびy軸方向が監視領域における水平方向に沿った方向に設定され、z軸方向が監視領域における垂直方向に沿った方向に設定される場合、受信機30に対する発信機40の水平方向での方位角θ1および垂直方向での仰俯角θ2が算出されることに基づき、受信機30に対して発信機40が位置する方向が求められる。これにより、受信機30に対する発信機40の位置が特定される。 In the process of specifying the position of the transmitter 40, when the receiver 30 receives the transmitter ID, the radio wave intensity information and the radio wave direction information of the radio wave from the transmitter 40 carrying the transmitter ID are used. Then, as shown in FIG. 6, the position of the transmitter 40 based on the position of the receiver 30 is specified. Specifically, the distance L from the receiver 30 to the transmitter 40 is calculated by using the radio field intensity information. Further, by using the radio wave direction information, the direction in which the transmitter 40 is located with respect to the receiver 30 is calculated in the three-dimensional rectangular coordinate system centered on the receiver 30. For example, when the x-axis direction and the y-axis direction of the three-dimensional Cartesian coordinate system are set in the horizontal direction in the monitoring area and the z-axis direction is set in the vertical direction in the monitoring area, reception is performed. The direction in which the transmitter 40 is located with respect to the receiver 30 is obtained based on the calculation of the azimuth angle θ1 in the horizontal direction and the elevation angle θ2 in the vertical direction of the transmitter 40 with respect to the receiver 30. As a result, the position of the transmitter 40 with respect to the receiver 30 is specified.

なお、図6では、理解を容易にするために、仰俯角θ2を仰角として示しているが、受信機30は、天井等のように監視領域の上部に設置されることが好ましく、この場合、仰俯角θ2は俯角となる。 In FIG. 6, the elevation/depression angle θ2 is shown as the elevation angle for easy understanding, but the receiver 30 is preferably installed above the monitoring area such as a ceiling. In this case, The elevation angle θ2 is the depression angle.

受信機30が複数の発信機40の発信機IDを受信した場合には、発信機IDごとに、電波強度情報および電波方向情報を用いて、発信機IDに対応する発信機40の位置の特定が行われる。図7が示すように、受信機30に対して同一の方向に複数の発信機40が存在する場合でも、電波強度情報の違いによって、受信機30と各発信機40のとの距離の違いが検出されるため、各発信機40の識別が可能である。また、図8が示すように、受信機30から同一の距離に複数の発信機40が存在する場合でも、電波方向情報の違いによって、受信機30に対して各発信機40が位置する方向の違いが検出されるため、各発信機40の識別が可能である。このように、電波強度情報および電波方向情報を用いることによって、受信機30に対する発信機40の位置の的確な特定が可能である。 When the receiver 30 receives the transmitter IDs of the plurality of transmitters 40, the position of the transmitter 40 corresponding to the transmitter ID is identified using the radio wave intensity information and the radio wave direction information for each transmitter ID. Is done. As shown in FIG. 7, even when a plurality of transmitters 40 exist in the same direction with respect to the receiver 30, a difference in distance between the receiver 30 and each transmitter 40 may occur due to a difference in radio field intensity information. Since it is detected, each transmitter 40 can be identified. Further, as shown in FIG. 8, even when a plurality of transmitters 40 are present at the same distance from the receiver 30, due to the difference in the radio wave direction information, the direction in which each transmitter 40 is located with respect to the receiver 30 is different. Since the difference is detected, each transmitter 40 can be identified. Thus, by using the radio wave intensity information and the radio wave direction information, the position of the transmitter 40 with respect to the receiver 30 can be accurately specified.

一方で、監視映像の解析により、監視映像に含まれる撮影対象が種類ごとに検出され、これによって、監視映像内での撮影対象の位置が特定される。これに基づき、図9が示すように、撮影端末20を基準とした撮影対象Obの位置が算出される。監視映像に複数の撮影対象Obが含まれる場合には、各撮影対象Obの位置が特定される。 On the other hand, by analyzing the surveillance video, the shooting target included in the surveillance video is detected for each type, and thereby the position of the shooting target in the surveillance video is specified. Based on this, as shown in FIG. 9, the position of the imaging target Ob based on the imaging terminal 20 is calculated. When the monitoring video includes a plurality of shooting targets Ob, the position of each shooting target Ob is specified.

例えば、撮影端末20を中心とする三次元直交座標系が予め設定され、これにより、監視領域における壁や柱等の固定物の位置座標が定められる。撮影対象Obを検出した際、さらに、固定物に対する撮影対象Obの位置関係を画像解析によって求めることにより、撮影対象Obの位置座標が得られる。 For example, a three-dimensional Cartesian coordinate system centered on the imaging terminal 20 is set in advance, and the position coordinates of a fixed object such as a wall or a pillar in the monitoring area are determined thereby. When the imaging target Ob is detected, the positional relationship of the imaging target Ob with respect to the fixed object is further obtained by image analysis to obtain the position coordinates of the imaging target Ob.

監視対象の個体識別の処理では、受信機30を基準とする発信機40の位置と、撮影端末20を基準とする撮影対象Obの位置とが照らし合わされることによって、撮影対象Obと発信機40との対応が特定される。このとき、発信機40を保持している監視対象と同じ種類の撮影対象Obが、特定対象として選出される。具体的には、監視対象が人物であるとき、人物であると判定された撮影対象Obが、発信機40との対応が特定される対象となる。 In the process of individual identification of the monitoring target, the position of the transmitter 40 with respect to the receiver 30 and the position of the target Ob with respect to the photographing terminal 20 are collated, so that the target Ob and the transmitter 40 are compared. The correspondence with is identified. At this time, the imaging target Ob of the same type as the monitoring target holding the transmitter 40 is selected as the specific target. Specifically, when the monitoring target is a person, the imaging target Ob that is determined to be a person is a target whose correspondence with the transmitter 40 is specified.

例えば、受信機30を基準とする三次元直交座標系の軸方向と、撮影端末20を中心とする三次元直交座標系の軸方向とが合わせられて、発信機40の位置と撮影対象Obの位置とが近接している場合に、当該発信機40と当該撮影対象Obとが対応すると判定される。撮影対象Obの位置は、点として特定されてもよいし、領域として特定されてもよい。撮影対象Obの位置が点として特定される場合、例えば、撮影対象Obが人物である場合にはその頭部や胴体部の略中央と判定される位置の点を撮影対象Obの位置としてもよいし、撮影対象Obの全体を囲む直方体や球体や楕円体が設定されてその重心を撮影対象Obの位置としてもよいし、撮影対象Obの外形や特徴部が抽出されてそこに位置する点の分布に基づき、撮影対象Obの位置を定めてもよい。また、撮影対象Obの位置が領域として特定される場合、例えば、撮影対象Obの全体を囲む直方体や球体や楕円体等の立体が設定されて、この立体の位置する領域が撮影対象Obの位置とされてもよいし、撮影対象Obの外形や特徴部が抽出されてそこに位置する点の分布に基づく範囲が、撮影対象Obの位置とされてもよい。 For example, the axial direction of the three-dimensional Cartesian coordinate system with the receiver 30 as a reference and the axial direction of the three-dimensional Cartesian coordinate system with the photographing terminal 20 as the center are matched, and the position of the transmitter 40 and the object Ob to be photographed. When the positions are close to each other, it is determined that the transmitter 40 and the imaging target Ob correspond to each other. The position of the imaging target Ob may be specified as a point or an area. When the position of the imaging target Ob is specified as a point, for example, when the imaging target Ob is a person, the position of the position determined to be approximately the center of the head or body of the object may be set as the position of the imaging target Ob. However, a rectangular parallelepiped, a sphere, or an ellipsoid surrounding the entire object to be imaged Ob may be set and the center of gravity thereof may be set as the position of the object to be imaged Ob. The position of the imaging target Ob may be determined based on the distribution. When the position of the imaging target Ob is specified as the area, for example, a solid such as a rectangular parallelepiped, a sphere, or an ellipsoid that surrounds the entire imaging target Ob is set, and the area where the solid is located is the position of the imaging target Ob. Alternatively, a range based on the distribution of the points where the outer shape or the characteristic part of the imaging target Ob is extracted and located there may be the position of the imaging target Ob.

撮影対象Obの位置が点として特定される場合、例えば、撮影対象Obの位置から所定の範囲内に、発信機40の位置が含まれる場合に、当該発信機40と当該撮影対象Obとが対応すると判定される。撮影対象Obの位置が領域として特定される場合、当該領域内に発信機40の位置が含まれる場合に、当該発信機40と当該撮影対象Obとが対応すると判定される。また、発信機40の位置も、点として特定されてもよいし、領域として特定されてもよい。 When the position of the photographing target Ob is specified as a point, for example, when the position of the transmitter 40 is included in a predetermined range from the position of the photographing target Ob, the transmitter 40 and the photographing target Ob correspond to each other. Then it is determined. When the position of the imaging target Ob is specified as the area, it is determined that the transmitter 40 and the imaging target Ob correspond to each other when the position of the transmitter 40 is included in the area. Further, the position of the transmitter 40 may be specified as a point or a region.

なお、撮影対象Obの位置は、必ずしも三次元座標として規定される必要はなく、撮影端末20に対する撮影対象Obの距離および方向の一部によって規定されてもよい。例えば、監視領域にて、受信機30と撮影端末20とが同一の垂直軸上に配置される構成であれば、受信機30を基準とする座標系の軸方向と撮影端末20を基準とする座標系の軸方向とが物理的に合わせられる。撮影端末20が監視領域の上部に設置され、監視対象が地上に位置する人物である場合、垂直方向での撮影端末20に対する撮影対象Obの仰俯角を求めずとも、水平方向での撮影端末20に対する撮影対象Obの方位角が判明すれば、発信機40の位置との照らし合わせは可能である。 The position of the imaging target Ob does not necessarily have to be defined as three-dimensional coordinates, and may be defined by part of the distance and direction of the imaging target Ob with respect to the imaging terminal 20. For example, in the monitoring area, if the receiver 30 and the photographing terminal 20 are arranged on the same vertical axis, the axial direction of the coordinate system with the receiver 30 as the reference and the photographing terminal 20 as the reference. It is physically aligned with the axial direction of the coordinate system. When the photographing terminal 20 is installed in the upper part of the monitoring area and the monitoring target is a person located on the ground, the photographing terminal 20 in the horizontal direction can be obtained without obtaining the elevation angle of the photographing target Ob with respect to the photographing terminal 20 in the vertical direction. If the azimuth angle of the object Ob to be photographed is known, it is possible to compare it with the position of the transmitter 40.

このように、撮影端末20に対する撮影対象Obの位置は、上述した例に限らず、撮影端末20の配置や予想される監視対象の配置に応じて、発信機40の位置との照らし合わせが可能なように規定されればよい。 As described above, the position of the shooting target Ob with respect to the shooting terminal 20 is not limited to the above-described example, and can be compared with the position of the transmitter 40 according to the placement of the shooting terminal 20 and the expected placement of the monitoring target. It may be specified as follows.

互いに対応する撮影対象Obと発信機40とは、すなわち、当該撮影対象Obの位置から当該発信機40が電波を発していること、言い換えれば、当該撮影対象Obが当該発信機40を保持していることを示す。 The photographing target Ob and the transmitter 40 corresponding to each other are that the transmitter 40 emits a radio wave from the position of the photographing target Ob, in other words, the photographing target Ob holds the transmitter 40. Indicates that

さらに、発信機管理データ12bの参照によって、発信機IDと対応付けられている対象情報が特定される。これにより、発信機IDを介して撮影対象Obと対象識別情報との対応が特定され、結果として、撮影対象Obに対応する対象識別情報、すなわち、撮影対象Obに対応する監視対象である個人が特定される。以上により、監視映像に含まれる監視対象の個体識別が完了する。なお、発信機IDと対応付けられている対象情報の特定は、撮影対象Obと発信機40との対応が特定される前に行われてもよい。 Furthermore, the target information associated with the transmitter ID is specified by referring to the transmitter management data 12b. As a result, the correspondence between the shooting target Ob and the target identification information is specified via the transmitter ID, and as a result, the target identification information corresponding to the shooting target Ob, that is, the individual who is the monitoring target corresponding to the shooting target Ob is identified. Specified. With the above, individual identification of the monitoring target included in the monitoring video is completed. The target information associated with the transmitter ID may be specified before the correspondence between the imaging target Ob and the transmitter 40 is specified.

また、監視映像において、監視対象と同じ種類、すなわち、人物として検出された撮影対象Obのなかには、発信機40との対応が特定できない撮影対象Ob、言い換えれば、撮影対象Obの位置に存在する発信機40が確認できない撮影対象Obがある場合があり得る。この場合、当該撮影対象Obの位置と、対応する発信機40が確認できなかったことを示す情報とが、検知データ12dに含められて記憶部12に記憶されることが好ましい。 In addition, in the surveillance video, in the same type as the surveillance target, that is, in the photography target Ob detected as a person, the photography target Ob whose correspondence with the transmitter 40 cannot be specified, in other words, the transmission existing at the position of the photography target Ob. There may be a case where there is a shooting target Ob that cannot be confirmed by the machine 40. In this case, it is preferable that the position of the imaging target Ob and information indicating that the corresponding transmitter 40 could not be confirmed are included in the detection data 12d and stored in the storage unit 12.

次に、統合画像の表示の処理について、図10を参照して説明する。統合画像の表示の処理は、監視端末60と監視情報管理サーバ10との協働により行われる。
図10が示すように、監視端末60の操作を通じて、監視端末60から監視情報管理サーバ10へ、統合画像が要求される(ステップS30)。監視対象識別システムに複数の撮影端末20が含まれる場合、いずれの撮影端末20が撮影した監視映像に基づく統合画像を要求するかが、監視端末60にて監視領域内の領域が指定されることによって決定されてもよい。
Next, the process of displaying the integrated image will be described with reference to FIG. The process of displaying the integrated image is performed by the cooperation of the monitoring terminal 60 and the monitoring information management server 10.
As shown in FIG. 10, an integrated image is requested from the monitoring terminal 60 to the monitoring information management server 10 through the operation of the monitoring terminal 60 (step S30). When the monitoring target identification system includes a plurality of photographing terminals 20, the monitoring terminal 60 specifies the area within the monitoring area as to which of the photographing terminals 20 requests the integrated image based on the monitoring video imaged. May be determined by

監視端末60から要求を受けると、監視情報管理サーバ10の表示データ生成部13dは、記憶部12に記憶されている各データを用いて、表示データを生成する(ステップS31)。統合画像は、監視映像を、監視対象の個体識別結果と共に示す画像であり、表示データは、こうした統合画像を監視端末60に表示させるためのデータである。 When receiving the request from the monitoring terminal 60, the display data generation unit 13d of the monitoring information management server 10 generates display data using each data stored in the storage unit 12 (step S31). The integrated image is an image showing the monitoring video together with the individual identification result of the monitoring target, and the display data is data for displaying the integrated image on the monitoring terminal 60.

監視情報管理サーバ10は、生成した表示データを監視端末60に送信し(ステップS32)、監視端末60は、受信した表示データを用いて、表示部に統合画像を表示する(ステップS33)。これにより、監視端末60の利用者である監視者は、監視領域における監視対象の様子を、監視対象を個々に識別しつつ確認することができる。 The monitoring information management server 10 transmits the generated display data to the monitoring terminal 60 (step S32), and the monitoring terminal 60 displays the integrated image on the display unit using the received display data (step S33). Thereby, the monitoring person who is the user of the monitoring terminal 60 can confirm the state of the monitoring target in the monitoring area while individually identifying the monitoring target.

図11を参照して、統合画像の構成について説明する。図11が示すように、統合画像IMは、撮影端末20が撮影した監視映像Iaと、監視映像に含まれる監視対象の位置および当該監視対象に対応する対象識別情報を示す識別情報Ibとを含む。識別情報Ibは、上述の監視対象の個体識別の処理の結果、互いに対応するとして特定された撮影対象Obと対象識別情報とについて、監視映像内での撮影対象Obの位置を示すとともに、この位置と対応付けて対象識別情報を示す。 The structure of the integrated image will be described with reference to FIG. As shown in FIG. 11, the integrated image IM includes the monitoring video Ia captured by the imaging terminal 20, and the identification information Ib indicating the position of the monitoring target included in the monitoring video and the target identification information corresponding to the monitoring target. .. The identification information Ib indicates the position of the imaging target Ob in the monitoring video for the imaging target Ob and the target identification information that are identified as corresponding to each other as a result of the above-described individual identification processing of the monitoring target, and the position The target identification information is shown in association with.

表示データ生成部13dは、監視映像Iaと同一の画面に識別情報Ibを表示させるように、統合画像IMの表示のための表示データを生成する。こうした表示データは、例えば、複数のレイヤーの合成によって、監視映像Iaと重ねて識別情報Ibを表示させるデータであってもよいし、監視映像Iaと識別情報Ibの少なくとも一部とを、1つの画面内における互いに異なる領域に表示させるデータであってもよい。 The display data generation unit 13d generates display data for displaying the integrated image IM so that the identification information Ib is displayed on the same screen as the monitor image Ia. Such display data may be, for example, data for displaying the identification information Ib overlaid on the surveillance image Ia by combining a plurality of layers, or the surveillance image Ia and at least a part of the identification information Ib may be combined into one. The data may be displayed in different areas on the screen.

図11が示す例では、監視映像Iaに含まれる撮影対象Obを囲む表示によって監視対象の位置が識別可能に示され、かつ、当該表示の付近に、監視対象の名前である対象識別情報が表示される。これにより、監視端末60にて統合画像IMを見る監視者は、監視映像に含まれる各撮影対象Obが監視対象のうちの誰であるかを個々に識別しつつ、監視対象の様子を確認することができる。 In the example shown in FIG. 11, the position of the monitoring target is identifiable by the display surrounding the imaging target Ob included in the monitoring image Ia, and the target identification information that is the name of the monitoring target is displayed near the display. To be done. Thereby, the monitor who views the integrated image IM on the monitor terminal 60 confirms the state of the monitoring target while individually identifying which of the monitoring targets each of the shooting targets Ob included in the monitoring video is. be able to.

また、監視映像にて人物として検出された撮影対象Obのなかに、発信機40との対応が確認できない撮影対象Obが存在する場合、図12が示すように、統合画像IMには、当該撮影対象Obの位置および当該撮影対象Obに対応する対応識別情報が特定できないことを示す非識別情報Icが含められることが好ましい。表示データ生成部13dは、監視映像Iaと同一の画面に非識別情報Icを表示させるように、統合画像IMの表示のための表示データを生成する。 Further, when there is a shooting target Ob whose correspondence with the transmitter 40 cannot be confirmed among the shooting targets Ob detected as a person in the monitoring video, as shown in FIG. It is preferable that the position of the target Ob and the non-identification information Ic indicating that the corresponding identification information corresponding to the imaging target Ob cannot be specified are included. The display data generation unit 13d generates display data for displaying the integrated image IM so that the non-identification information Ic is displayed on the same screen as the monitor image Ia.

発信機40との対応が確認できない撮影対象Obが存在することは、すなわち、当該撮影対象Obが発信機40を保持していないことを示し、当該撮影対象Obが、部外者等のように、監視領域に存在することが想定されていない人物である可能性が高いことを示唆する。統合画像IMに非識別情報Icが含められることによって、監視者は、こうした撮影対象Obの存在を容易に把握することができるため、監視領域に存在すべきではない人物が監視領域に侵入していることを早期に発見し、対処することができる。 The existence of the photographing target Ob whose correspondence with the transmitter 40 cannot be confirmed means that the photographing target Ob does not hold the transmitter 40, and the photographing target Ob is like an outsider. , It is highly possible that the person is not supposed to exist in the surveillance area. By including the non-identification information Ic in the integrated image IM, the surveillance person can easily recognize the existence of such an imaging target Ob, and thus a person who should not be present in the surveillance area enters the surveillance area. Can be detected and dealt with early.

なお、監視映像内に、発信機40との対応が確認できない撮影対象Obが存在した場合、監視情報管理サーバ10は、監視端末60に音声や文字による警告を行わせてもよいし、メール等によって監視者への通知を行ってもよい。このように、統合画像IMにおける非識別情報Icの表示や、上記警告や、上記通知によって、発信機40との対応が確認できない撮影対象Obが存在することが外部に通知される。 If there is an object to be photographed Ob whose correspondence with the transmitter 40 cannot be confirmed in the surveillance video, the surveillance information management server 10 may cause the surveillance terminal 60 to issue a warning by voice or text, e-mail or the like. Notification may be given to the monitoring person. As described above, the display of the non-identification information Ic in the integrated image IM, the warning, and the notification notify the outside that there is the imaging target Ob whose correspondence with the transmitter 40 cannot be confirmed.

以上のように、本実施形態によれば、監視映像での撮影対象の位置の特定と、発信機40の位置の特定に基づく監視対象の位置の特定との連携によって、監視映像に含まれる監視対象の個体識別が可能となる。言い換えれば、監視映像にて位置が特定された撮影対象に、電波の状態から特定される位置に基づき発信機40を対応させることで、撮影対象と発信機40を保持する監視対象との対応が特定できる。 As described above, according to the present embodiment, the surveillance included in the surveillance video is performed by the cooperation of the location of the shooting target in the surveillance video and the location of the surveillance target based on the location of the transmitter 40. Individual identification of the target becomes possible. In other words, by making the transmitter 40 correspond to the shooting target whose position is specified in the monitoring video based on the position specified by the state of the radio wave, the shooting target and the monitoring target holding the transmitter 40 can be associated with each other. Can be specified.

そして、監視映像と共に、監視対象の個体識別結果が、統合画像として監視端末60に表示される。したがって、監視映像のみによっては、監視映像に含まれる監視対象の個体識別が困難な状況においても、当該監視対象の個体識別が可能であり、監視対象を的確に監視することができる。 Then, together with the monitoring video, the individual identification result of the monitoring target is displayed on the monitoring terminal 60 as an integrated image. Therefore, even if it is difficult to identify the individual monitoring target included in the monitoring video only by the monitoring video, the individual identification of the monitoring target is possible, and the monitoring target can be accurately monitored.

特に、工場や工事現場、医療現場等の作業現場においては、作業者の服装やヘルメット等の装着品が、互いに異なる作業者の間で似通っていることも多い。こうした作業現場を撮影した映像のみを頼りにして、映像に含まれる人物を見分けることは、監視者にとって負担が大きいため、本実施形態の監視対象識別システムの利用によって、監視者の負担を大きく減じることができる。また、例えば、顔認識の技術を利用すれば、監視映像のみによって監視対象の人物の個体識別を行うことも可能ではあるが、顔認識により監視対象を識別するためには、監視対象の撮影の方向等、監視映像の撮影に求められる条件の制約が大きい。また、監視対象が帽子やマスク等のように作業上必要な共通の装着品を身に着けている場合には、識別の精度が低下せざるを得ない。これに対し、本実施形態によれば、撮影の条件や監視対象の装着品等による制約を受けることなく、監視対象の個体識別が可能であるため、有用性が高い。 In particular, at a work site such as a factory, a construction site, or a medical site, clothes of workers and worn items such as helmets are often similar to each other. Since it is a heavy burden for the monitor to distinguish the person included in the video only by relying on the video captured at the work site, the burden on the monitor is greatly reduced by using the monitoring target identification system of the present embodiment. be able to. In addition, for example, if face recognition technology is used, it is possible to identify a person to be monitored only by monitoring video. There are large restrictions on the conditions required for shooting the surveillance video, such as the direction. In addition, when the monitoring target is wearing a common wearing item such as a hat or a mask, which is necessary for work, the accuracy of identification must be reduced. On the other hand, according to the present embodiment, the individual identification of the monitoring target is possible without being restricted by the shooting conditions and the mounted article of the monitoring target, and thus the utility is high.

また、上述の説明では、発信機40を保持する監視対象が人物である場合を例示したが、発信機40を物品に取り付けることによって物品を監視対象とし、監視映像にて当該物品に対応する種類の撮影対象Obを検出することで、物品の個体識別も可能である。すなわち、発信機40を保持可能であるとともに、監視映像における検出が可能であれば、監視対象の種類は限定されない。監視対象が物品である場合、統合画像に含まれる対象識別情報は、対象IDや物品の名称等、監視対象を識別可能な情報であればよい。本実施形態では、近距離での無線通信を利用した発信機40と受信機30との情報の授受を通じて、監視対象の位置を特定するため、赤外線センサーを利用して監視対象を検出する場合と異なり、人物のみならず物品を監視対象とすることができる。 Further, in the above description, the case where the monitoring target holding the transmitter 40 is a person has been exemplified, but the product is made a monitoring target by attaching the transmitter 40 to an article, and the type corresponding to the article in the monitoring image is displayed. The individual identification of the article is also possible by detecting the imaging target Ob. That is, the type of the monitoring target is not limited as long as the transmitter 40 can be held and can be detected in the monitoring video. When the monitoring target is an item, the target identification information included in the integrated image may be any information that can identify the monitoring target, such as the target ID and the name of the item. In the present embodiment, in order to specify the position of the monitoring target by exchanging information between the transmitter 40 and the receiver 30 using wireless communication in a short distance, a case where the infrared sensor is used to detect the monitoring target, Differently, not only a person but also an article can be a monitoring target.

特に、近距離での無線通信としてBLEが利用されることにより、受信機30は、当該受信機30を中心として、最大で半径が20m〜30m程度の範囲にて、発信機40の電波を受信することが可能であり、この範囲内において所望の範囲に受信範囲を設定可能である。例えば、近距離での無線通信のシステムの他の例として、HF帯やUHF帯を利用したパッシブ型のRFIDのシステムが挙げられるが、こうしたシステムにおいて、受信機が発信機としてのRFIDタグを検知可能な範囲、すなわち、受信機とRFIDタグとの間の通信距離は、HF帯で最大約1m程度であり、UHF帯で最大約10m程度である。これと比較して、BLEが利用されることにより、受信機30の受信範囲の設定についての自由度が高まり、受信範囲を広く確保することが可能であるため、監視領域が大きい場合であっても、システムに要する受信機30の数を低減することができる。 In particular, by using BLE for wireless communication in a short distance, the receiver 30 receives the radio waves of the transmitter 40 within a range of a maximum radius of 20 m to 30 m around the receiver 30. It is possible to set the reception range to a desired range within this range. For example, another example of a short-range wireless communication system is a passive RFID system using the HF band or the UHF band. In such a system, the receiver detects an RFID tag as a transmitter. The possible range, that is, the communication distance between the receiver and the RFID tag is about 1 m at the maximum in the HF band and about 10 m at the maximum in the UHF band. In comparison with this, by using BLE, the degree of freedom in setting the reception range of the receiver 30 is increased, and it is possible to secure a wide reception range. Also, the number of receivers 30 required for the system can be reduced.

また、RFIDのシステムにおいて、受信機がRFIDタグを検知するためには、受信機とRFIDタグとが向かい合っている必要があるため、検知のための受信機とRFIDタグとの向きついての制約が大きい。これに対し、BLEが利用される構成であれば、検知のための受信機30と発信機40との向きによる制約が小さくなるため、受信機30の配置位置の設定に要する負荷が大きくなることや、検知のために監視対象の作業者の作業効率が低下することが抑えられる。さらに、近年、BLEに対応したスマートフォンやタブレット端末等の端末が増加しているため、登録端末50として用いることの可能な端末についての選択の自由度も高められる。したがって、BLEの利用によって、監視対象識別システムの汎用性が高められる。 Further, in the RFID system, the receiver and the RFID tag need to face each other in order for the receiver to detect the RFID tag. Therefore, there are restrictions on the orientation of the receiver and the RFID tag for detection. large. On the other hand, if the configuration is such that BLE is used, the constraint imposed by the orientation of the receiver 30 and the transmitter 40 for detection is reduced, and the load required to set the arrangement position of the receiver 30 is increased. Also, it is possible to prevent the work efficiency of the worker to be monitored from being lowered due to the detection. Furthermore, in recent years, the number of terminals such as smartphones and tablet terminals that support BLE is increasing, so that the degree of freedom in selecting a terminal that can be used as the registration terminal 50 can be increased. Therefore, the use of BLE enhances the versatility of the monitoring target identification system.

[統合画像の表示に関する他の形態]
監視端末60から監視情報管理サーバ10に統合画像を要求する際に、統合画像の生成についての条件である表示条件が指定されてもよい。監視情報管理サーバ10の表示データ生成部13dは、表示条件に応じた表示データを生成する。
[Other modes for displaying integrated image]
When requesting the integrated image from the monitoring terminal 60 to the monitoring information management server 10, a display condition that is a condition for generating the integrated image may be designated. The display data generation unit 13d of the monitoring information management server 10 generates display data according to the display conditions.

具体的には、表示条件には、監視映像の視聴のモードの指定と、監視映像の抽出の条件とが含まれる。視聴のモードは、ライブモードおよびアーカイブモードのいずれかである。ライブモードは、撮影端末20が撮影している監視映像を逐次、監視端末60に表示させるモードであり、すなわち、監視者が、撮影端末20が撮影している監視映像をリアルタイムで見るモードである。 Specifically, the display conditions include designation of a viewing mode of the monitoring video and conditions for extracting the monitoring video. The viewing mode is either a live mode or an archive mode. The live mode is a mode in which the monitoring images captured by the image capturing terminal 20 are sequentially displayed on the monitoring terminal 60, that is, the supervisor views the monitoring images captured by the image capturing terminal 20 in real time. ..

アーカイブモードは、撮影端末20が過去に撮影して監視情報管理サーバ10に記憶されている監視映像を監視端末60に表示させるモードであり、監視者が、撮影端末20が過去に撮影した監視映像を見るモードである。アーカイブモードの利用によって、監視者は、過去の監視領域や監視対象について、確認したい場所や対象を的確に確認することが可能である。したがって、監視者の利便性が高められ、過去の監視映像が、過去の監視領域における監視対象の記録として有効に利用できる。 The archive mode is a mode in which the surveillance terminal 60 displays the surveillance video captured by the photography terminal 20 in the past and stored in the surveillance information management server 10, and the surveillance video captured by the surveillance terminal 20 in the past by the observer. Is the mode to see. By using the archive mode, the monitor person can accurately confirm the place and the target to be confirmed in the past monitor area and monitor target. Therefore, the convenience of the observer is enhanced, and the past monitoring video can be effectively used as a record of the monitoring target in the past monitoring area.

監視映像の抽出の条件には、監視領域内の領域を指定する情報、および、監視対象を指定する情報の少なくとも一方が含まれる。監視領域内の領域の指定は、例えば、撮影端末IDや受信機IDの指定を通じて行われ、監視対象の指定は、例えば、対象IDや対象識別情報や発信機IDの指定を通じて行われる。また、アーカイブモードが指定される場合、監視映像の抽出の条件には、監視映像が撮影された時刻を指定する時刻指定情報も含まれる。 The condition for extracting the surveillance video includes at least one of information designating an area in the surveillance area and information designating a monitoring target. The area in the monitoring area is specified, for example, by specifying the photographing terminal ID and the receiver ID, and the monitoring target is specified, for example, by specifying the target ID, the target identification information, and the transmitter ID. When the archive mode is designated, the condition for extracting the surveillance video also includes time designation information that designates the time when the surveillance video was shot.

表示データ生成部13dは、表示条件としてライブモードが指定されているとき、撮影端末20から逐次受信している動画データを用いて、表示データを生成する。また、表示データ生成部13dは、表示条件としてアーカイブモードが指定されているとき、監視映像データ12cとして記憶部12に記憶されている動画データのうち、時刻指定情報にて指定される期間に撮影された動画データを用いて、表示データを生成する。 When the live mode is designated as the display condition, the display data generation unit 13d generates the display data by using the moving image data sequentially received from the photographing terminal 20. When the archive mode is designated as the display condition, the display data generation unit 13d takes a picture during the period designated by the time designation information in the moving image data stored in the storage unit 12 as the monitoring video data 12c. Display data is generated using the generated moving image data.

また、表示データ生成部13dは、表示条件として監視領域内の領域が指定されているとき、指定された領域の監視映像を、統合画像の生成に用いる監視映像として抽出し、当該監視映像についての監視対象の個体識別結果を用いて、統合画像の表示データを生成する。監視領域内の領域の指定として受信機IDが指定される場合には、指定された領域の監視映像を撮影した撮影端末20は、受信機管理データ12aにおける受信機IDと撮影端末IDとの対応付けを参照することによって、特定できる。こうした構成によれば、監視領域内の特定の領域を指定して、その領域を撮影した監視映像Iaを識別情報Ibとともに監視端末60に表示させることができるため、監視者は、確認したい場所を容易に確認することができる。 Further, when the area within the surveillance area is designated as the display condition, the display data generation unit 13d extracts the surveillance video of the designated area as the surveillance video used for generating the integrated image, Display data of the integrated image is generated using the individual identification result of the monitoring target. When the receiver ID is designated as the designation of the area within the monitoring area, the photographing terminal 20 that has photographed the surveillance video of the designated area corresponds to the receiver ID and the photographing terminal ID in the receiver management data 12a. It can be specified by referring to the attachment. With such a configuration, a specific area in the monitoring area can be designated, and the monitoring image Ia obtained by shooting the area can be displayed on the monitoring terminal 60 together with the identification information Ib. It can be easily confirmed.

また、表示データ生成部13dは、表示条件として監視対象が指定されているとき、指定された監視対象が含まれる監視映像を、統合画像の生成に用いる監視映像として抽出し、当該監視映像についての監視対象の個体識別結果を用いて、統合画像の表示データを生成する。指定された監視対象が含まれる監視映像を撮影した撮影端末20は、発信機管理データ12bにおける対象IDおよび対象識別情報と発信機IDとの対応付け、検知データ12dにおける受信機30が受信した発信機IDの記録、および、受信機管理データ12aにおける受信機IDと撮影端末IDとの対応付けを参照することによって、特定できる。指定された監視対象が、互いに異なる撮影端末20の撮影範囲を移動する場合には、各撮影端末20が撮影した監視映像が繋ぎ合わされた映像が表示されるように、表示データが構成される。こうした構成によれば、特定の監視対象を指定して、その監視対象を撮影した監視映像Iaを識別情報Ibとともに監視端末60に表示させることができるため、監視者は、確認したい監視対象を容易に確認することができる。 In addition, when the monitoring target is specified as the display condition, the display data generation unit 13d extracts the monitoring video including the specified monitoring target as the monitoring video used for generating the integrated image, and monitors the monitoring video. Display data of the integrated image is generated using the individual identification result of the monitoring target. The photographing terminal 20 that has photographed the monitoring video including the designated monitoring target associates the target ID and the target identification information in the transmitter management data 12b with the transmitter ID, and transmits the call received by the receiver 30 in the detection data 12d. It can be specified by referring to the record of the machine ID and the correspondence between the receiver ID and the photographing terminal ID in the receiver management data 12a. The display data is configured such that when the designated monitoring targets move in different shooting ranges of the shooting terminals 20, the monitoring videos shot by the shooting terminals 20 are displayed in a connected manner. According to such a configuration, a specific monitoring target can be designated, and the monitoring video Ia obtained by shooting the monitoring target can be displayed on the monitoring terminal 60 together with the identification information Ib. Therefore, the monitoring person can easily check the monitoring target to be confirmed. Can be confirmed.

さらに、表示条件として監視領域内の領域と監視対象とが指定されている場合には、指定された領域、かつ、指定された監視対象が含まれる監視映像が、統合画像の生成に用いる監視映像として抽出される。 Further, when the area within the monitoring area and the monitoring target are specified as the display conditions, the monitoring video including the specified area and the specified monitoring target is the monitoring video used for generating the integrated image. Is extracted as.

以上説明したように、本実施形態によれば、以下の効果が得られる。
(1)監視映像が含む撮影対象の位置の特定と、発信機40からの電波の状態を利用した発信機40の位置の特定に基づく監視対象の位置の特定との連携によって、監視映像に含まれる監視対象の個体識別が可能となる。
As described above, according to this embodiment, the following effects can be obtained.
(1) Included in the monitoring video in cooperation with the specification of the position of the shooting target included in the monitoring video and the specification of the position of the monitoring target based on the position of the transmitter 40 using the state of the radio wave from the transmitter 40. It is possible to identify the individual monitored target.

(2)監視端末60に表示される統合画像IMが、監視映像Iaと、撮影対象との対応が特定された監視対象の対象識別情報を、監視映像における撮影対象の位置と対応付けて示す識別情報Ibとを含む。こうした構成によれば、監視者は、統合画像を見ることによって、監視映像に含まれる監視対象の個々の識別を容易に把握することができる。 (2) The integrated image IM displayed on the monitoring terminal 60 identifies the monitoring video Ia and the target identification information of the monitoring target whose correspondence with the shooting target is identified in association with the position of the shooting target in the monitoring video. And information Ib. With such a configuration, the observer can easily grasp the individual identification of the monitoring target included in the monitoring video by looking at the integrated image.

(3)監視映像において位置が特定された撮影対象のなかに、監視対象との対応の特定ができない撮影対象である未確認対象が含まれるとき、外部への通知が行われる。こうした構成であれば、監視領域に存在することが想定されていない対象が監視領域に侵入していることを、監視者等が把握することができる。 (3) When the shooting target whose position is specified in the monitoring video includes an unconfirmed target that is a shooting target whose correspondence with the monitoring target cannot be specified, notification to the outside is performed. With such a configuration, an observer or the like can understand that an object that is not supposed to exist in the monitoring area has entered the monitoring area.

(4)上記外部への通知として、統合画像IMに、監視映像における上記未確認対象の位置を示す非識別情報Icが含められる形態であれば、監視者は、監視領域に存在することが想定されていない対象が監視領域に侵入していることを視覚的に把握できる。したがって、こうした対象の侵入に配する対処を的確に進めやすい。 (4) If the integrated image IM includes the non-identification information Ic indicating the position of the unconfirmed target in the monitor video as the notification to the outside, the monitor is assumed to be present in the monitor area. It is possible to visually understand that a target that has not entered has entered the surveillance area. Therefore, it is easy to properly deal with such an intrusion of the target.

(5)監視映像における撮影対象の種類および位置の特定の処理に、人工知能が利用される。こうした形態によれば、監視映像に含まれる撮影対象をより正確に特定することができる。 (5) Artificial intelligence is used for the process of specifying the type and position of the shooting target in the surveillance video. According to this mode, it is possible to more accurately specify the shooting target included in the surveillance video.

(6)発信機40の位置の特定に用いられる電波の状態には、受信機30が検出した発信機40の電波の強度および方向が含まれる。こうした構成によれば、受信機30に対する発信機40の距離と方向との算出が可能であるため、発信機40の位置の的確な特定が可能である。 (6) The state of the radio wave used to identify the position of the transmitter 40 includes the intensity and direction of the radio wave of the transmitter 40 detected by the receiver 30. With such a configuration, the distance and the direction of the transmitter 40 with respect to the receiver 30 can be calculated, and thus the position of the transmitter 40 can be accurately specified.

[変形例]
上記実施形態は、以下のように変更して実施することが可能である。
・上記実施形態では、1つの撮影端末20と1つの受信機30とが対応付けられている例を説明したが、1つの撮影端末20と複数の受信機30とが対応付けられてもよいし、複数の撮影端末20と1つの受信機30とが対応付けられてもよい。換言すれば、1つの撮影端末20は、1つの受信機30の受信範囲を撮影してもよいし、複数の受信機30の受信範囲を撮影してもよい。また、1つの受信機30の受信範囲が、複数の撮影端末20によって撮影されてもよい。要は、監視映像での撮影対象の位置の特定と、発信機40の位置の特定に基づく監視対象の位置の特定との連携によって、撮影対象と監視対象とを対応させることが可能なように、撮影端末20と受信機30とが配置されるとともに、監視情報管理サーバ10における位置の演算のためのデータが設定されていればよい。
[Modification]
The above embodiment can be modified and implemented as follows.
In the above embodiment, an example in which one image capturing terminal 20 and one receiver 30 are associated with each other has been described, but one image capturing terminal 20 may be associated with a plurality of receivers 30. The plurality of photographing terminals 20 and one receiver 30 may be associated with each other. In other words, one photographing terminal 20 may photograph the receiving range of one receiver 30 or may photograph the receiving ranges of a plurality of receivers 30. Further, the reception range of one receiver 30 may be photographed by a plurality of photographing terminals 20. In short, by linking the position of the shooting target in the monitoring video with the position of the monitoring target based on the position of the transmitter 40, the shooting target and the monitoring target can be associated with each other. It suffices that the photographing terminal 20 and the receiver 30 are arranged and that data for position calculation in the monitoring information management server 10 is set.

・統合画像には、複数の監視映像Iaと、監視映像Iaごとの識別情報Ibとが含まれてもよい。例えば、表示条件として複数の領域や複数の監視対象が指定された場合や、1つの受信機30に複数の撮影端末20が対応付けられている場合には、複数の監視映像が抽出され、監視映像ごとの監視対象の個体識別結果を用いて、複数の監視映像を含む統合画像の表示データが生成される。 The integrated image may include a plurality of surveillance videos Ia and identification information Ib for each surveillance video Ia. For example, when a plurality of areas and a plurality of monitoring targets are designated as display conditions, or when a plurality of image capturing terminals 20 are associated with one receiver 30, a plurality of monitoring videos are extracted and monitored. Display data of an integrated image including a plurality of monitoring videos is generated using the individual identification result of the monitoring target for each video.

・上記実施形態では、監視対象識別装置がサーバである例を説明したが、監視対象識別装置は、撮影端末20および受信機30と有線または無線にて接続されて情報を授受するコンピュータ端末であればよい。 In the above embodiment, an example in which the monitoring target identification device is a server has been described, but the monitoring target identification device may be a computer terminal that is connected to the imaging terminal 20 and the receiver 30 in a wired or wireless manner to exchange information. Good.

・監視端末60に表示される統合画像は、監視映像および対象識別情報に加えて、この対象識別情報とともに発信機IDに対応付けられている監視対象の属性を示す情報や、この対象識別情報に対応する発信機IDを受信している受信機30についての情報や、監視映像を撮影した撮影端末20についての情報を含んでもよい。すなわち、監視情報管理サーバ10の表示データ生成部13dは、これらの情報を1つの画面内に表示させるように、表示データを生成してもよい。 The integrated image displayed on the monitoring terminal 60 includes, in addition to the monitoring video and the target identification information, information indicating the attributes of the monitoring target associated with the transmitter ID together with the target identification information, and the target identification information. Information about the receiver 30 that receives the corresponding transmitter ID and information about the photographing terminal 20 that has photographed the surveillance video may be included. That is, the display data generation unit 13d of the monitoring information management server 10 may generate the display data so that these pieces of information are displayed in one screen.

・上記実施形態では、第1通信機として自発的に電波を発信する発信機40を用い、第2通信機として当該電波を受信する受信機30を用いた。これに限らず、第2通信機は、近距離での無線通信によって、第1通信機の識別情報を受信可能に構成されていればよく、当該無線通信は、電波の状態によって第1通信機の位置を特定可能な無線通信であればよい。例えば、第1通信機は、第2通信機からの電波を受けて起動して、第1通信機の識別情報を第2通信機に反射し、その結果、第2通信機が第1通信機の識別情報を受信してもよい。第1通信機は監視対象に保持され、第2通信機は監視領域内に設置される。 In the above embodiment, the transmitter 40 that spontaneously emits a radio wave is used as the first communication device, and the receiver 30 that receives the radio wave is used as the second communication device. Not limited to this, the second communication device may be configured to be able to receive the identification information of the first communication device by wireless communication at a short distance, and the wireless communication is performed by the first communication device depending on the radio wave state. Any wireless communication can be used as long as the position can be specified. For example, the first communication device is activated by receiving a radio wave from the second communication device, reflects the identification information of the first communication device to the second communication device, and as a result, the second communication device causes the first communication device to receive the identification information. May be received. The first communication device is held as a monitoring target, and the second communication device is installed in the monitoring area.

具体的には、第1通信機と第2通信機との間における情報の授受に用いられる無線通信は、BLEに限らず、例えば、RFIDのシステムにて用いられる、HF帯やUHF帯を利用した非接触通信であってもよい。この場合、第1通信機として、RFIDシステムにて利用されるICタグ等の通信媒体が用いられ、第2通信機として、RFIDシステムにて利用されるリーダー/ライター装置等の通信機器が用いられる。そして、通信機器が発する電波を利用したコマンド通信により、通信機器は通信媒体からその識別情報を含むレスポンスを受信する。通信機器が通信媒体からレスポンスを受信した際の電波の強度および方向から、通信媒体の位置を特定することができる。また、監視領域内に複数の通信機器を設置し、各通信機器と通信媒体との通信時における電波の状態から通信媒体の位置を特定することで、通信媒体の位置の高精度な測位を実現することもできる。 Specifically, the wireless communication used for exchanging information between the first communication device and the second communication device is not limited to BLE, and for example, the HF band or UHF band used in the RFID system is used. The contactless communication may be performed. In this case, a communication medium such as an IC tag used in the RFID system is used as the first communication device, and a communication device such as a reader/writer device used in the RFID system is used as the second communication device. .. Then, the communication device receives the response including the identification information from the communication medium by the command communication using the radio wave emitted from the communication device. The position of the communication medium can be specified from the strength and direction of the radio wave when the communication device receives the response from the communication medium. In addition, multiple communication devices are installed in the monitoring area, and the position of the communication medium is specified from the state of the radio waves during communication between each communication device and the communication medium, thereby realizing highly accurate positioning of the position of the communication medium. You can also do it.

Ia…監視映像、Ib…識別情報、Ic…非識別情報、IM…統合画像、Ob…撮影対象、10…監視情報管理サーバ、11…通信部、12…記憶部、12a…受信機管理データ、12b…発信機管理データ、12c…監視映像データ、12d…検知データ、13…制御部、13a…管理データ登録部、13b…監視映像処理部、13c…受信機情報処理部、13d…表示データ生成部、20…撮影端末、30…受信機、40…発信機、50…登録端末、60…監視端末。 Ia...monitoring video, Ib...identification information, Ic...non-identification information, IM...integrated image, Ob...shooting target, 10...monitoring information management server, 11...communication section, 12...storage section, 12a...receiver management data, 12b...transmitter management data, 12c...monitoring video data, 12d...detection data, 13...control section, 13a...management data registration section, 13b...monitoring video processing section, 13c...receiver information processing section, 13d...display data generation Part, 20... Imaging terminal, 30... Receiver, 40... Transmitter, 50... Registration terminal, 60... Monitoring terminal.

Claims (9)

監視領域内を撮影して監視映像として出力する撮影端末と、前記撮影端末の撮影範囲内に位置する監視対象に保持された第1通信機からその識別情報を近距離での無線通信によって受信する第2通信機と、に接続される監視対象識別装置であって、
前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられた管理データを記憶する記憶部と、
前記監視映像に含まれる撮影対象の位置を特定する監視映像処理部と、
前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記第2通信機が検出した前記第1通信機からの電波の状態に基づいて特定する通信機特定部と、
前記管理データと、前記監視映像処理部が特定した前記撮影対象の位置と、前記通信機特定部が特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行う個体識別部と、
を備える監視対象識別装置。
The identification information is received by short-distance wireless communication from a photographing terminal that photographs the inside of the monitoring area and outputs it as a monitoring image, and a first communication device that is held by a monitoring target that is located within the photographing range of the photographing terminal. A monitoring target identification device connected to the second communication device,
A storage unit that stores management data in which identification information of the first communication device and target identification information that is information that enables identification of the monitoring target that holds the first communication device are associated with each other,
A surveillance video processing unit that identifies the position of the shooting target included in the surveillance video;
A communication device specifying unit that specifies the position of the first communication device that has transmitted the identification information received by the second communication device, based on the state of the radio wave from the first communication device detected by the second communication device. When,
Based on the management data, the position of the shooting target specified by the surveillance video processing unit, and the position of the first communication device specified by the communication device specifying unit, the shooting target and the first communication device are determined. By specifying the correspondence with the monitoring target to be held, an individual identification unit that performs individual identification of the monitoring target included in the monitoring video,
A monitoring target identification device including.
前記第1通信機は、自発的に電波を発する発信機であり、前記第2通信機は、当該電波を受信する受信機である
請求項1に記載の監視対象識別装置。
The monitoring target identification device according to claim 1, wherein the first communication device is a transmitter that spontaneously emits a radio wave, and the second communication device is a receiver that receives the radio wave.
前記監視対象識別装置は、表示装置と接続され、
前記監視映像と、前記撮影対象との対応が特定された前記監視対象の前記対象識別情報を、前記監視映像における当該撮影対象の位置と対応付けて示す情報とを含む画像の表示データを生成する表示データ生成部と、
前記表示データを前記表示装置に出力する出力部と、
を備える請求項1または2に記載の監視対象識別装置。
The monitoring target identification device is connected to a display device,
Display data of an image including the monitoring video and information indicating the target identification information of the monitoring target whose correspondence with the shooting target is identified in association with the position of the shooting target in the monitoring video is generated. A display data generation unit,
An output unit for outputting the display data to the display device,
The monitoring target identification device according to claim 1, further comprising:
前記監視映像処理部が位置を特定した前記撮影対象のなかに、前記個体識別部による前記監視対象との対応の特定ができない対象が含まれるとき、外部への通知を行う
請求項1または2に記載の監視対象識別装置。
The outside is notified when the surveillance video processing unit includes a target whose position cannot be specified by the individual identification unit among the shooting targets whose position is specified by the individual identification unit. The monitoring target identification device described.
前記監視対象識別装置は、表示装置と接続され、
前記監視映像処理部が位置を特定した前記撮影対象のなかに、前記個体識別部による前記監視対象との対応の特定ができない対象である未確認対象が含まれるとき、前記監視映像と、前記監視映像における前記未確認対象の位置を示す情報とを含む画像の表示データを生成する表示データ生成部と、
前記表示データを前記表示装置に出力する出力部と、
を備える請求項1または2に記載の監視対象識別装置。
The monitoring target identification device is connected to a display device,
The monitoring video and the monitoring video when the monitoring video processing unit includes an unidentified target that is a target for which the correspondence with the monitoring target cannot be identified by the individual identification unit among the imaging targets whose positions are specified. A display data generation unit that generates display data of an image including information indicating the position of the unconfirmed target in
An output unit for outputting the display data to the display device,
The monitoring target identification device according to claim 1, further comprising:
前記監視映像処理部による前記撮影対象の特定の処理には、人工知能が利用される
請求項1〜5のいずれか一項に記載の監視対象識別装置。
The monitoring target identification device according to any one of claims 1 to 5, wherein artificial intelligence is used for the process of specifying the shooting target by the monitoring video processing unit.
前記電波の状態には、前記第2通信機が検出した前記電波の強度および方向が含まれる
請求項1〜6のいずれか一項に記載の監視対象識別装置。
The monitoring target identification device according to claim 1, wherein the state of the radio wave includes the intensity and direction of the radio wave detected by the second communication device.
監視領域内を撮影して監視映像として出力する撮影端末と、
監視対象に保持される第1通信機と、
前記撮影端末の撮影範囲内に位置する前記第1通信機からその識別情報を近距離での無線通信によって受信する第2通信機と、
前記撮影端末および前記第2通信機と接続された監視対象識別装置と、を備える監視対象識別システムであって、
前記監視対象識別装置は、
前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられた管理データを記憶する記憶部と、
前記監視映像に含まれる撮影対象の位置を特定する監視映像処理部と、
前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記第2通信機が検出した前記第1通信機からの電波の状態に基づいて特定する通信機特定部と、
前記管理データと、前記監視映像処理部が特定した前記撮影対象の位置と、前記通信機特定部が特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行う個体識別部と、を備える
監視対象識別システム。
A shooting terminal that shoots the inside of the surveillance area and outputs it as surveillance video,
A first communication device held as a monitoring target,
A second communication device that receives the identification information from the first communication device located within the shooting range of the shooting terminal by wireless communication at a short distance;
A monitoring target identification system comprising a monitoring target identification device connected to the photographing terminal and the second communication device,
The monitoring target identification device,
A storage unit that stores management data in which identification information of the first communication device and target identification information that is information that enables identification of the monitoring target that holds the first communication device are associated with each other,
A surveillance video processing unit that identifies the position of the shooting target included in the surveillance video;
A communication device specifying unit that specifies the position of the first communication device that has transmitted the identification information received by the second communication device, based on the state of the radio wave from the first communication device detected by the second communication device. When,
Based on the management data, the position of the shooting target specified by the surveillance video processing unit, and the position of the first communication device specified by the communication device specifying unit, the shooting target and the first communication device are determined. A monitoring target identification system comprising: an individual identification unit that performs individual identification of the monitoring target included in the monitoring video by identifying the correspondence with the retained monitoring target.
撮影端末が、監視領域内を撮影して、その映像である監視映像を監視対象識別装置に出力することと、
監視対象に保持される第1通信機が、前記第1通信機の識別情報を発信することと、
第2通信機が、前記撮影端末の撮影範囲内に位置する前記第1通信機から前記識別情報を近距離での無線通信によって受信して、当該識別情報と、前記第2通信機が検出した前記第1通信機からの電波の状態を示す情報とを前記監視対象識別装置に出力することと、
前記監視対象識別装置が、前記監視映像に含まれる撮影対象の位置を特定することと、
前記監視対象識別装置が、前記第2通信機が受信した前記識別情報を発信した前記第1通信機の位置を、前記電波の状態を示す情報に基づいて特定することと、
前記監視対象識別装置が、前記第1通信機の識別情報と、当該第1通信機を保持した前記監視対象を識別可能に示す情報である対象識別情報とが対応付けられたデータと、特定した前記撮影対象の位置と、特定した前記第1通信機の位置とに基づいて、前記撮影対象と前記第1通信機を保持する前記監視対象との対応を特定することにより、前記監視映像に含まれる前記監視対象の個体識別を行うことと、
を含む監視対象識別方法。
The photographing terminal photographs the inside of the monitoring area and outputs a monitoring image, which is the image, to the monitoring target identification device,
A first communication device held by a monitoring target transmits identification information of the first communication device;
The second communication device receives the identification information from the first communication device located within the photographing range of the photographing terminal by wireless communication at a short distance, and the identification information and the second communication device detect the identification information. Outputting information indicating the state of radio waves from the first communication device to the monitoring target identification device;
The monitoring target identification device specifies a position of a shooting target included in the monitoring video,
The monitoring target identification device identifies the position of the first communication device that has transmitted the identification information received by the second communication device, based on information indicating the state of the radio wave;
The monitoring target identification device specifies data in which identification information of the first communication device is associated with target identification information that is information that allows the monitoring target holding the first communication device to be identified. Included in the monitoring video by specifying the correspondence between the shooting target and the monitoring target holding the first communication device based on the position of the shooting target and the position of the specified first communication device. Performing individual identification of the monitoring target,
Target identification method including.
JP2018241050A 2018-12-25 2018-12-25 Monitor target identification apparatus, monitor target identification system, and monitor target identification method Pending JP2020102817A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018241050A JP2020102817A (en) 2018-12-25 2018-12-25 Monitor target identification apparatus, monitor target identification system, and monitor target identification method
JP2023187818A JP2024012472A (en) 2018-12-25 2023-11-01 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241050A JP2020102817A (en) 2018-12-25 2018-12-25 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023187818A Division JP2024012472A (en) 2018-12-25 2023-11-01 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Publications (1)

Publication Number Publication Date
JP2020102817A true JP2020102817A (en) 2020-07-02

Family

ID=71141336

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018241050A Pending JP2020102817A (en) 2018-12-25 2018-12-25 Monitor target identification apparatus, monitor target identification system, and monitor target identification method
JP2023187818A Pending JP2024012472A (en) 2018-12-25 2023-11-01 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023187818A Pending JP2024012472A (en) 2018-12-25 2023-11-01 Monitor target identification apparatus, monitor target identification system, and monitor target identification method

Country Status (1)

Country Link
JP (2) JP2020102817A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7457948B2 (en) 2021-03-10 2024-03-29 パナソニックIpマネジメント株式会社 Location estimation system, location estimation method, location information management system, location information management method and program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030022A (en) * 2002-06-24 2004-01-29 Shimizu Corp Invasion detection system
JP2005208878A (en) * 2004-01-22 2005-08-04 Toko Electric Corp Security system
JP2006127240A (en) * 2004-10-29 2006-05-18 Secom Co Ltd Suspicious person detection system and suspicious person detection program
JP2006311111A (en) * 2005-04-27 2006-11-09 Daikin Ind Ltd Position sensing system and method for sensing position
JP2007257122A (en) * 2006-03-22 2007-10-04 Hitachi Kokusai Electric Inc Monitoring system
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2008016042A (en) * 2002-03-26 2008-01-24 Toshiba Corp Monitoring system, device, and method
JP2009140264A (en) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd Crime prevention device and program
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2011113531A (en) * 2009-11-30 2011-06-09 Secom Co Ltd Security system
JP2011145839A (en) * 2010-01-13 2011-07-28 Nippon Steel Corp Monitoring system, device, method and program
JP2018057596A (en) * 2016-10-05 2018-04-12 コニカミノルタ株式会社 Joint position estimation device and joint position estimation program
JP2018133749A (en) * 2017-02-16 2018-08-23 オリンパス株式会社 Controlled object, moving device, imaging apparatus, movement control method, movement assisting method, movement control program, and movement assisting program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016042A (en) * 2002-03-26 2008-01-24 Toshiba Corp Monitoring system, device, and method
JP2004030022A (en) * 2002-06-24 2004-01-29 Shimizu Corp Invasion detection system
JP2005208878A (en) * 2004-01-22 2005-08-04 Toko Electric Corp Security system
JP2006127240A (en) * 2004-10-29 2006-05-18 Secom Co Ltd Suspicious person detection system and suspicious person detection program
JP2006311111A (en) * 2005-04-27 2006-11-09 Daikin Ind Ltd Position sensing system and method for sensing position
JP2007257122A (en) * 2006-03-22 2007-10-04 Hitachi Kokusai Electric Inc Monitoring system
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2009140264A (en) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd Crime prevention device and program
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2011113531A (en) * 2009-11-30 2011-06-09 Secom Co Ltd Security system
JP2011145839A (en) * 2010-01-13 2011-07-28 Nippon Steel Corp Monitoring system, device, method and program
JP2018057596A (en) * 2016-10-05 2018-04-12 コニカミノルタ株式会社 Joint position estimation device and joint position estimation program
JP2018133749A (en) * 2017-02-16 2018-08-23 オリンパス株式会社 Controlled object, moving device, imaging apparatus, movement control method, movement assisting method, movement control program, and movement assisting program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7457948B2 (en) 2021-03-10 2024-03-29 パナソニックIpマネジメント株式会社 Location estimation system, location estimation method, location information management system, location information management method and program

Also Published As

Publication number Publication date
JP2024012472A (en) 2024-01-30

Similar Documents

Publication Publication Date Title
US20210304577A1 (en) Integrated Camera and Ultra-Wideband Location Devices and Related Systems
JP4547040B1 (en) Display image switching device and display image switching method
KR102484647B1 (en) Method of controlling electronic apparatus and computer-readable recording medium
KR20210086072A (en) System and method for real-time monitoring field work
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
US10341616B2 (en) Surveillance system and method of controlling the same
US20180063421A1 (en) Wearable camera, wearable camera system, and recording control method
JP2024012472A (en) Monitor target identification apparatus, monitor target identification system, and monitor target identification method
KR101757884B1 (en) Apparatus for providing circumstance information based on battlefield situation awareness and method thereof
KR20150083480A (en) System for managing facilities by using 3d stereoscopic images
TWM510514U (en) Region monitoring and alarming system
CN105323549A (en) Method and device for mapping sensor location and event operation using monitoring device
CN108734910A (en) A kind of abnormal behaviour monitoring and warning system and method
JP6979643B2 (en) Surveillance video display system, surveillance video display device, surveillance information management server, and surveillance video display method
KR20180027839A (en) Method and apparatus for providing livestock information based on the vision of augmented reality
KR101466132B1 (en) System for integrated management of cameras and method thereof
US11386669B2 (en) Building evacuation method and building evacuation system
KR101724087B1 (en) Electronic patrol method, using beacon and smart cctv
US10838506B2 (en) Gesture based object identification apparatus and method in a real time locating system
US11758081B2 (en) Server and method for displaying 3D tour comparison
KR101933428B1 (en) A drone system which receiving a real time image from a drone and executing a human recognition image analyzing program
JP6941458B2 (en) Monitoring system
KR20180027994A (en) Method and apparatus for providing livestock information based on the vision of augmented reality
KR101332820B1 (en) System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof
KR102196683B1 (en) Device and method for photographing 3d tour

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230801