JP2017156122A - Control device, control method, and detection system - Google Patents

Control device, control method, and detection system Download PDF

Info

Publication number
JP2017156122A
JP2017156122A JP2016037265A JP2016037265A JP2017156122A JP 2017156122 A JP2017156122 A JP 2017156122A JP 2016037265 A JP2016037265 A JP 2016037265A JP 2016037265 A JP2016037265 A JP 2016037265A JP 2017156122 A JP2017156122 A JP 2017156122A
Authority
JP
Japan
Prior art keywords
detection
information
dynamic object
flying object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016037265A
Other languages
Japanese (ja)
Inventor
裕一 藤澤
Yuichi Fujisawa
裕一 藤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016037265A priority Critical patent/JP2017156122A/en
Publication of JP2017156122A publication Critical patent/JP2017156122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To present the behavior of an object whose position was specified to a user in more detail.SOLUTION: Provided is a control device for acquiring an image of a dynamic object, comprising: a position specification unit for specifying a three-dimensional coordinate position of the dynamic object on the basis of acquired detection information on the dynamic object at a plurality of detection points; and an imaging control unit for causing at least one or more imaging devices to image the dynamic object on the basis of the three-dimensional coordinate position of the dynamic object. The detection information includes the bearing and elevation angle of the dynamic object, with the detection points serving as the starting point.SELECTED DRAWING: Figure 5

Description

本発明は、制御装置、制御方法、及び探知システムに関する。   The present invention relates to a control device, a control method, and a detection system.

近年、対象物の位置情報を取得するための種々の方法が提案されている。また、上記のような方法の一つとして、対象物の発する音を分析し音源の位置を特定する技術が知られている。音源の位置を特定する装置には、例えば、特許文献1に記載の音源検出装置がある。   In recent years, various methods for acquiring position information of an object have been proposed. As one of the methods described above, there is known a technique for analyzing the sound emitted from an object and specifying the position of the sound source. As an apparatus for specifying the position of a sound source, for example, there is a sound source detection apparatus described in Patent Document 1.

特開2013−068427号公報JP 2013-068427 A

しかし、特許文献1に記載の音源検出装置では、ユーザが対象物の動作に係る情報を視覚的に取得できない、という問題がある。   However, the sound source detection device described in Patent Document 1 has a problem that the user cannot visually acquire information related to the operation of the object.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、位置特定した対象物の挙動をより詳細にユーザに提示することが可能な、新規かつ改良された制御装置、制御方法、及び探知システムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of presenting the behavior of the identified object to the user in more detail. Another object of the present invention is to provide a control device, a control method, and a detection system.

上記課題を解決するために、本発明のある観点によれば、動的対象物の画像を取得する制御装置であって、取得した複数の探知地点における前記動的対象物の探知情報に基づいて、前記動的対象物の三次元座標位置を特定する位置特定部と、前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の撮像装置に前記動的対象物を撮像させる撮像制御部と、を備え、前記探知情報は、前記探知地点を起点とした前記動的対象物の方位及び俯仰角を含む、制御装置が提供される。   In order to solve the above problem, according to an aspect of the present invention, a control device that acquires an image of a dynamic object, based on detection information of the dynamic object at a plurality of acquired detection points. A position specifying unit that specifies a three-dimensional coordinate position of the dynamic object, and imaging that causes at least one imaging device to image the dynamic object based on the three-dimensional coordinate position of the dynamic object A control unit, wherein the detection information includes an azimuth and elevation angle of the dynamic object starting from the detection point.

前記探知情報は、音響センサにより取得される情報であってよい。   The detection information may be information acquired by an acoustic sensor.

前記位置特定部は、前記複数の探知地点おける前記探知情報に基づいて、前記探知地点を起点とした前記動的対象物の方位の交点を算出し、前記動的対象物の前記三次元座標位置を特定してよい。   The position specifying unit calculates an intersection of the orientations of the dynamic object starting from the detection point based on the detection information at the plurality of detection points, and the three-dimensional coordinate position of the dynamic object May be specified.

前記制御装置は、前記動的対象物の前記三次元座標位置を地図情報と対応付けて表示させる表示制御部、をさらに備えてよい。   The control device may further include a display control unit that displays the three-dimensional coordinate position of the dynamic object in association with map information.

前記表示制御部は、取得した前記動的対象物の画像をさらに前記地図情報と対応付けて表示させてよい。   The display control unit may further display the acquired image of the dynamic object in association with the map information.

前記表示制御部は、前記動的対象物の前記三次元座標位置の変化を地図情報と対応づけて表示させてよい。   The display control unit may display a change in the three-dimensional coordinate position of the dynamic object in association with map information.

前記撮像制御部は、前記動的対象物の前記三次元座標位置をブロードキャストし、前記ブロードキャストに係る情報を受信した撮像装置に前記動的対象物を撮像させてよい。   The imaging control unit may broadcast the three-dimensional coordinate position of the dynamic object and cause the imaging apparatus that has received the information related to the broadcast to image the dynamic object.

前記動的対象物は、飛来物であってよい。   The dynamic object may be a flying object.

また、上記課題を解決するために、本発明の別の観点によれば、動的対象物の画像を取得する制御方法であって、取得した複数の探知地点における前記動的対象物の探知情報に基づいて、前記動的対象物の三次元座標位置を特定することと、前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の撮像装置に前記動的対象物を撮像させることと、を含み、前記探知情報は、前記探知地点を起点とした前記動的対象物の方位及び俯仰角を含む、制御方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, there is provided a control method for acquiring an image of a dynamic object, the detection information of the dynamic object at a plurality of acquired detection points. And specifying at least one imaging device based on the three-dimensional coordinate position of the dynamic object and at least one imaging device based on the three-dimensional coordinate position of the dynamic object. And the detection information includes an azimuth and elevation angle of the dynamic object starting from the detection point.

また、上記課題を解決するために、本発明の別の観点によれば、動的対象物の方位及び俯仰角を探知するセンサ部、及び撮像部、を備える探知装置と、複数の前記探知装置から取得した前記動的対象物の方位及び俯仰角に基づいて、前記動的対象物の三次元座標位置を特定する位置特定部、及び前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の前記探知装置に前記動的対象物を撮像させる撮像制御部、を備える制御装置と、を含む、探知システムが提供される。   In order to solve the above problems, according to another aspect of the present invention, a detection device including a sensor unit and an imaging unit for detecting the azimuth and elevation angle of a dynamic object, and a plurality of the detection devices Based on the azimuth and elevation angle of the dynamic object obtained from the position specifying unit for specifying the three-dimensional coordinate position of the dynamic object, and at least based on the three-dimensional coordinate position of the dynamic object There is provided a detection system including a control device including an imaging control unit that causes one or more detection devices to image the dynamic object.

以上説明したように本発明によれば、位置特定した対象物の挙動をより詳細にユーザに提示することが可能となる。   As described above, according to the present invention, it is possible to present the behavior of the target object whose position has been specified to the user in more detail.

本発明の第1の実施形態に係る探知システムのシステム構成例である。1 is a system configuration example of a detection system according to a first embodiment of the present invention. 同実施形態に係る探知装置の機能ブロック図である。It is a functional block diagram of the detection device according to the embodiment. 同実施形態に係る制御装置の機能ブロック図である。It is a functional block diagram of a control device concerning the embodiment. 同実施形態に係る探知画面の構成を説明するための図である。It is a figure for demonstrating the structure of the detection screen which concerns on the embodiment. 同実施形態に係る探知画面の挙動を説明するための図である。It is a figure for demonstrating the behavior of the detection screen which concerns on the same embodiment. 同実施形態に係る制御装置による制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control by the control apparatus which concerns on the same embodiment. 同実施形態に係る交点計算の制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of intersection calculation which concerns on the embodiment. 同実施形態に係る交点計算を模式的に示した図である。It is the figure which showed typically the intersection calculation which concerns on the same embodiment. 第2の実施形態に係る探知画面の表示例である。It is a display example of a detection screen according to the second embodiment. 第3の実施形態に係るブロードキャストを説明するための図である。It is a figure for demonstrating the broadcast which concerns on 3rd Embodiment. 本発明に係るハードウェア構成例である。It is an example of hardware constitutions concerning the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.はじめに>
近年の技術進歩により様々な装置が開発されている。一方、当該装置を悪用した犯罪行為の多発も懸念されている。また、上記のような犯罪は多様化の傾向にあり、一般の企業や団体などが標的とされることも考えられる。このため、企業や団体においては、種々の犯罪に対する自衛手段が求められている。
<1. Introduction>
Various devices have been developed due to recent technological advances. On the other hand, there are concerns about the frequent occurrence of criminal acts that abuse the device. Moreover, the crimes as described above tend to be diversified, and it is possible that general companies and organizations are targeted. For this reason, companies and organizations are demanding self-defense measures against various crimes.

また、近年懸念されている犯罪の一つには、例えば、装置を利用した施設への攻撃や不正な侵入行為が挙げられる。上記のような不法行為に対しては、領域内に侵入する装置の情報をいち早く探知し、状況に応じた対応を行うことが求められる。   In addition, one of the crimes that have been concerned in recent years includes, for example, attacks on facilities using devices and illegal intrusion. For illegal activities such as those described above, it is necessary to quickly detect information on devices that enter the area and take measures according to the situation.

本発明は、上記の点に着目して発想されたものであり、取得した複数の探知地点における動的対象物の探知情報に基づいて、当該動的対象物の三次元座標位置を特定すること、を特徴の一つとする。また、本発明では、動的対象物の三次元座標位置に基づいて、少なくとも1つ以上の撮像装置に動的対象物を撮像させることができる。   The present invention has been conceived by paying attention to the above points, and based on the acquired detection information of the dynamic object at a plurality of detection points, the three-dimensional coordinate position of the dynamic object is specified. Is one of the features. In the present invention, based on the three-dimensional coordinate position of the dynamic object, at least one imaging device can image the dynamic object.

以降に説明される本実施形態では、本発明に係る制御装置、制御方法、及び探知システムについて、構成上の特徴を挙げながら、当該構成が奏する効果について説明する。なお、以降に説明される本発明の実施形態では、動的対象物の例として、種々の飛来物を想定し説明する。飛来物には、例えば、空中移動体や小型無人飛行機(回転翼、固定翼を含む)などが含まれてよい。   In the present embodiment described below, the effects of the configuration will be described with respect to the control device, the control method, and the detection system according to the present invention, while mentioning the characteristics of the configuration. In the embodiments of the present invention described below, various flying objects are assumed and described as examples of dynamic objects. The flying object may include, for example, an air moving body or a small unmanned airplane (including a rotary wing and a fixed wing).

<2.第1の実施形態>
[2.1.探知システムのシステム構成例]
本実施形態に係る探知システムは、複数の探知装置により取得した動的対象物の方位及び俯仰角に基づいて、当該動的対象物の三次元座標位置を特定することができる。また、本実施形態に係る探知システムは、特定した動的対象物の三次元座標位置に基づいて、当該動的対象物を撮像することができる。
<2. First Embodiment>
[2.1. Example of system configuration of detection system]
The detection system according to the present embodiment can specify the three-dimensional coordinate position of the dynamic object based on the azimuth and elevation angle of the dynamic object acquired by a plurality of detection devices. In addition, the detection system according to the present embodiment can image the dynamic object based on the identified three-dimensional coordinate position of the dynamic object.

まず、図1を参照して、本実施形態に係る探知システムのシステム構成例について説明する。図1を参照すると、本実施形態に係る探知システムは、複数の探知装置10a及び10bと、制御装置30と、を備える。また、複数の探知装置10a及び10bと、制御装置30と、は互いに通信が行えるようにネットワーク20を介して接続される。   First, a system configuration example of the detection system according to the present embodiment will be described with reference to FIG. Referring to FIG. 1, the detection system according to the present embodiment includes a plurality of detection devices 10 a and 10 b and a control device 30. The plurality of detection devices 10a and 10b and the control device 30 are connected via the network 20 so that they can communicate with each other.

ここで、探知装置10a及び10bは、動的対象物である飛来物40を探知するための装置であり、探知範囲に応じて適宜設置されてよい。また、制御装置30は、探知装置10a及び10bから取得した情報を分析し、当該分析の結果をユーザに提示する装置である。   Here, the detection devices 10a and 10b are devices for detecting the flying object 40 that is a dynamic object, and may be appropriately installed according to the detection range. In addition, the control device 30 is a device that analyzes information acquired from the detection devices 10a and 10b and presents the analysis result to the user.

また、ネットワーク20は、探知装置10a及び10bと、制御装置30と、を接続する機能を有する。ネットワーク20は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク20は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。   Further, the network 20 has a function of connecting the detection devices 10 a and 10 b and the control device 30. The network 20 may include a public line network such as the Internet, a telephone line network, a satellite communication network, various LANs (Local Area Network) including Ethernet (registered trademark), a WAN (Wide Area Network), and the like. Further, the network 20 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).

本実施形態に係る探知システムによれば、探知装置10a及び10bが取得した飛来物40に係る探知情報を分析し、飛来物40の挙動を視覚情報としてユーザに提供することが可能となる。   According to the detection system according to the present embodiment, it is possible to analyze the detection information related to the flying object 40 acquired by the detection devices 10a and 10b and to provide the user with the behavior of the flying object 40 as visual information.

なお、本実施形態では、探知システムが2台の探知装置10を備える場合を例に説明するが、本実施形態に係る探知システムの構成は係る例に限定されない。本実施形態に係る探知システムは、3台以上の探知装置10を備えてもよい。この場合、探知システムは、より広い探知範囲で飛来物40を探知することが可能となり、位置特定に係る精度の向上も期待できる。また、探知システムが4台以上の探知装置10を備える場合、複数の飛来物40に関する挙動を同時に分析しユーザに提示することも可能である。   In the present embodiment, a case where the detection system includes two detection devices 10 will be described as an example. However, the configuration of the detection system according to the present embodiment is not limited to the example. The detection system according to the present embodiment may include three or more detection devices 10. In this case, the detection system can detect the flying object 40 in a wider detection range, and an improvement in accuracy related to the position specification can be expected. Further, when the detection system includes four or more detection devices 10, it is also possible to simultaneously analyze and present to the user the behaviors related to the plurality of flying objects 40.

[2.2.本実施形態に係る探知装置10]
次に、本実施形態に係る探知装置10について詳細に説明する。上述したとおり、本実施形態に係る探知装置10は、飛来物40を探知するための装置であり、探知装置10を起点とした飛来物40の方位、及び俯仰角を取得することができる。本実施形態に係る探知装置10は、例えば、マイクロフォンやマイクアレイなどの音響センサにより取得した情報に基づいて、上記の方位及び俯仰角を取得することができる。また、本実施形態に係る探知装置10は、制御装置30による制御に基づいて、飛来物40を撮像することが可能である。
[2.2. Detection Device 10 According to the Present Embodiment]
Next, the detection device 10 according to the present embodiment will be described in detail. As described above, the detection device 10 according to the present embodiment is a device for detecting the flying object 40 and can acquire the azimuth and elevation angle of the flying object 40 starting from the detection device 10. The detection device 10 according to the present embodiment can acquire the azimuth and elevation angle based on information acquired by an acoustic sensor such as a microphone or a microphone array. Further, the detection device 10 according to the present embodiment can image the flying object 40 based on the control by the control device 30.

図2は、本実施形態に係る探知装置10の機能ブロック図である。図2を参照すると、探知装置10は、センサ部110、撮像部120、及び処理通信部130を備える。以下、探知装置10が備える各構成について詳細に説明する。   FIG. 2 is a functional block diagram of the detection device 10 according to the present embodiment. Referring to FIG. 2, the detection device 10 includes a sensor unit 110, an imaging unit 120, and a processing communication unit 130. Hereinafter, each component with which the detection apparatus 10 is provided is demonstrated in detail.

(センサ部110)
センサ部110は、探知装置10を起点とした飛来物40の方位、及び俯仰角を取得する機能を有する。本実施形態に係るセンサ部110は、上記の情報を取得するため、音響センサを含む複数のセンサを備えてよい。センサ部110は、例えば、複数のマイクロフォンを備え、各マイクロフォンにより集音された情報に基づいて、上記の方位及び俯仰角を取得してもよい。複数のマイクロフォンを用いた音源位置の特定については、特許文献1に記載されているCSP(Cross−power Spectrum Phase analysis)法などを用いてもよい。また、上記の方位及び俯仰角は、入力波形の相互相関関数により求めることも可能である。
(Sensor unit 110)
The sensor unit 110 has a function of acquiring the azimuth and elevation angle of the flying object 40 starting from the detection device 10. The sensor unit 110 according to the present embodiment may include a plurality of sensors including an acoustic sensor in order to acquire the above information. The sensor unit 110 may include, for example, a plurality of microphones, and may acquire the above azimuth and elevation angle based on information collected by each microphone. For specifying the sound source position using a plurality of microphones, a CSP (Cross-power Spectrum Phase analysis) method described in Patent Document 1 may be used. Further, the above azimuth and elevation angle can be obtained from the cross-correlation function of the input waveform.

さらには、本実施形態に係るセンサ部110は、特定方向の音を収音する指向性を有したマイクアレイを備えることもできる。センサ部110は、複数のマイクアレイが集音した情報に基づいて、飛来物40の方位及び俯仰角を検出してもよい。また、上記で述べたマイクロフォン及びマイクアレイは、より音圧が高い飛来物40に1対1で反応するように構成されてもよい。この場合、2つの飛来物40が別々の方向に存在する状況においても、2つの探知装置10a及び10bは、それぞれ異なる飛来物40の方位及び俯仰角を探知し、対応する方向を撮像することができる。   Furthermore, the sensor unit 110 according to the present embodiment may include a microphone array having directivity for collecting sound in a specific direction. The sensor unit 110 may detect the azimuth and elevation angle of the flying object 40 based on information collected by a plurality of microphone arrays. Further, the microphone and the microphone array described above may be configured to react one-on-one with the flying object 40 having a higher sound pressure. In this case, even in a situation where the two projectiles 40 exist in different directions, the two detection devices 10a and 10b can detect the azimuth and elevation angle of the different projectiles 40 and image the corresponding directions. it can.

また、本実施形態に係るセンサ部110は、音以外の情報に基づいて、飛来物40の方向及び俯仰角を取得してもよい。センサ部110は、例えば、レーダーとしての機能を有し、飛来物40から反射する電波を探知することで、上記の方向及び俯仰角を取得することもできる。また、センサ部110は、後述する撮像部120が撮像した画像情報を分析し、上記の方位及び俯仰角を取得することも可能である。この場合、センサ部110は、予め記憶された飛来物40の画像情報や、飛来物40と共に撮像される距離マーカなどに基づいて、上記の方位及び俯仰角を算出することができる。   Moreover, the sensor part 110 which concerns on this embodiment may acquire the direction and elevation angle of the flying object 40 based on information other than a sound. The sensor unit 110 has a function as a radar, for example, and can acquire the above-described direction and elevation angle by detecting a radio wave reflected from the flying object 40. The sensor unit 110 can also analyze image information captured by the imaging unit 120 described later, and obtain the above azimuth and elevation angle. In this case, the sensor unit 110 can calculate the above azimuth and elevation angle based on image information of the flying object 40 stored in advance, a distance marker imaged together with the flying object 40, and the like.

また、本実施形態に係るセンサ部110は、上記に例示したセンサの他にも様々なセンサを備えてよい。この場合、センサ部110は、いずれのセンサを適用するかを決めるセンサ切り替え手段を有し、当該センサ切り替え手段により、音響センサ、光センサ、温度センサおよび気圧センサの間で適用するセンサを切り替えることができる。具体的には、探知装置10の起動時に音響センサが適用されている場合、センサ切り替え手段が、適用するセンサを、音響センサから光センサへと切り替えてもよい。また、センサ切り替え手段は、音響センサを単独で適用するモードから、音響センサと光センサを同時に適用するモードへと切り替え制御を行ってもよい。ここで、センサ切り替え手段は、所定間隔(例えば10秒や8時間など)でセンサの切り替えを制御してもよいし、制御装置30などの外部装置からの指示に基づいてセンサ切り替えを制御してもよい。上記の外部装置からの指示は、例えば、2016年2月29日の午前6時に、適用するセンサを音響センサから温度センサに切り替えさせる指示命令であってもよい。また、例えば、外部装置に備えられる騒音計が、周辺の騒音レベルが80dB(デジベル)を上回ったことを検出し、当該検出情報を探知装置10に通知してもよい。この場合、センサ部110のセンサ切り替え手段は、受信した上記の検出情報に基づいて、適用するセンサを音響センサから光センサへと切り替えてもよい。さらに、センサ切り替え手段は、後述する撮像部120が撮像した飛来物40の画像情報に係る分析結果に基づいて、適用するセンサの切り替え制御を行ってもよい。すなわち、センサ切り替え手段は、画像分析により取得された飛来物40の性質に基づいて、適用するセンサの切り替えを制御することもできる。なお、センサ部110の構成は、周辺の環境に応じて適宜変更され得る。また、センサ部110の構成は、飛来物40の性質に応じて適宜変更され得る。   The sensor unit 110 according to the present embodiment may include various sensors in addition to the sensors exemplified above. In this case, the sensor unit 110 includes a sensor switching unit that determines which sensor is applied, and the sensor switching unit switches a sensor to be applied among the acoustic sensor, the optical sensor, the temperature sensor, and the atmospheric pressure sensor. Can do. Specifically, when an acoustic sensor is applied when the detection device 10 is activated, the sensor switching unit may switch the applied sensor from the acoustic sensor to the optical sensor. The sensor switching unit may perform switching control from a mode in which the acoustic sensor is applied alone to a mode in which the acoustic sensor and the optical sensor are applied at the same time. Here, the sensor switching unit may control sensor switching at a predetermined interval (for example, 10 seconds or 8 hours), or may control sensor switching based on an instruction from an external device such as the control device 30. Also good. The instruction from the external device may be, for example, an instruction command for switching the applied sensor from the acoustic sensor to the temperature sensor at 6:00 am on February 29, 2016. Further, for example, a sound level meter provided in the external device may detect that the surrounding noise level has exceeded 80 dB (decibel) and notify the detection device 10 of the detection information. In this case, the sensor switching unit of the sensor unit 110 may switch the sensor to be applied from the acoustic sensor to the optical sensor based on the received detection information. Furthermore, the sensor switching unit may perform switching control of the sensor to be applied based on the analysis result relating to the image information of the flying object 40 captured by the imaging unit 120 described later. That is, the sensor switching means can also control switching of the applied sensor based on the property of the flying object 40 acquired by image analysis. Note that the configuration of the sensor unit 110 can be changed as appropriate according to the surrounding environment. Further, the configuration of the sensor unit 110 can be appropriately changed according to the nature of the flying object 40.

(撮像部120)
撮像部120は、飛来物40を撮像する機能を有する。具体的には、本実施形態に係る撮像部120は、制御装置30による制御に基づいて、飛来物40の三次元座標位置を捉えるように撮像を行うことができる。このため、本実施形態に係る撮像部120は、動画像または静止画像を撮像する撮像装置を含んでよい。なお、撮像部120は、動画像または静止画像を撮像する際、第1モード、第2モードまたは第3モードで撮像してもよい。ここで、第1モードは、一般的なカラー撮影であってよい。また、第2モードは赤外線に感度をもたせた赤外線撮影であってよい。また、第3モードは赤外線に基づき温度分布の可視化を行うサーモグラフィ撮影であってよい。この場合、撮像部120は、第1モードに対応する第1撮像手段、第2モードに対応する第2撮像手段、第3モードに対応する第3撮像手段、及びいずれの撮像手段を適用するかを決める撮像手段切り替え手段を有する。具体的には、探知装置10の起動時に第1撮像手段が適用されている場合、撮像手段切り替え手段が、適用する撮像手段を、第1撮像手段から第2撮像手段へと切り替えてもよい。また、撮像手段切り替え手段は、第1撮像手段を単独で適用する状態から、第2撮像手段と第3撮像手段を同時に適用する状態へと切り替え制御を行ってもよい。ここで、撮像手段切り替え手段は、所定間隔(例えば10秒や8時間など)で撮像手段切り替えを制御してもよいし、制御装置30などの外部装置からの指示に基づいて撮像手段切り替えを制御してもよい。上記の外部装置からの指示は、例えば、2016年2月29日の午前6時に、適用する撮像手段を第1撮像手段から第2撮像手段に切り替えさせる指示命令であってもよい。また、例えば、外部装置に備えられる昼夜検知器(遮光センサ)が周辺の光の強度に基づいて昼か夜かを検知し、当該検出情報を探知装置10に通知してもよい。この場合、撮像部120の撮像手段切り替え手段は、受信した上記の検出情報に基づいて、適用する撮像手段を第1撮像手段から第2撮像手段へと切り替えてもよい。さらに、撮像手段切り替え手段は、撮像部120が撮像した飛来物40の画像情報に係る分析結果に基づいて、適用する撮像手段の切り替え制御を行ってもよい。すなわち、撮像手段切り替え手段は、画像分析により取得された飛来物40の性質に基づいて、適用する撮像手段の切り替えを制御することもできる。なお、撮像部120の構成は、周辺の環境に応じて適宜変更され得る。
(Imaging unit 120)
The imaging unit 120 has a function of imaging the flying object 40. Specifically, the imaging unit 120 according to the present embodiment can perform imaging so as to capture the three-dimensional coordinate position of the flying object 40 based on control by the control device 30. For this reason, the imaging unit 120 according to the present embodiment may include an imaging device that captures a moving image or a still image. Note that the imaging unit 120 may capture the moving image or the still image in the first mode, the second mode, or the third mode. Here, the first mode may be general color photography. Further, the second mode may be infrared imaging with sensitivity to infrared rays. The third mode may be thermographic imaging that visualizes the temperature distribution based on infrared rays. In this case, the imaging unit 120 applies the first imaging unit corresponding to the first mode, the second imaging unit corresponding to the second mode, the third imaging unit corresponding to the third mode, and which imaging unit is applied. Imaging means switching means for determining Specifically, when the first imaging unit is applied when the detection device 10 is activated, the imaging unit switching unit may switch the imaging unit to be applied from the first imaging unit to the second imaging unit. The imaging means switching means may perform switching control from a state where the first imaging means is applied alone to a state where the second imaging means and the third imaging means are applied simultaneously. Here, the imaging unit switching unit may control switching of the imaging unit at a predetermined interval (for example, 10 seconds or 8 hours), or may control switching of the imaging unit based on an instruction from an external device such as the control device 30. May be. The instruction from the external device may be, for example, an instruction command for switching the imaging unit to be applied from the first imaging unit to the second imaging unit at 6:00 am on February 29, 2016. Further, for example, a day / night detector (light-shielding sensor) provided in the external device may detect whether it is day or night based on the intensity of ambient light, and notify the detection device 10 of the detection information. In this case, the imaging unit switching unit of the imaging unit 120 may switch the imaging unit to be applied from the first imaging unit to the second imaging unit based on the received detection information. Further, the imaging unit switching unit may perform switching control of the imaging unit to be applied based on the analysis result related to the image information of the flying object 40 captured by the imaging unit 120. That is, the imaging means switching means can also control switching of imaging means to be applied based on the nature of the flying object 40 acquired by image analysis. Note that the configuration of the imaging unit 120 can be changed as appropriate according to the surrounding environment.

(処理通信部130)
処理通信部130は、ネットワーク20を介して制御装置30と通信を行う機能を有する。また、処理通信部130は、センサ部110及び撮像部120が取得したアナログ信号をデジタル信号に変換する機能を有してよい。具体的には、本実施形態に係る処理通信部130は、探知装置10を起点とした飛来物40の方位及び俯仰角を制御装置30に送信する機能を有する。この際、処理通信部130は、上記の方位及び俯仰角を探知時間と紐付けて制御装置30に送信してよい。また、処理通信部130は、制御装置30から取得した制御情報を撮像部120に引き渡す機能を有する。
(Processing communication unit 130)
The processing communication unit 130 has a function of communicating with the control device 30 via the network 20. The processing communication unit 130 may have a function of converting analog signals acquired by the sensor unit 110 and the imaging unit 120 into digital signals. Specifically, the processing communication unit 130 according to this embodiment has a function of transmitting the azimuth and elevation angle of the flying object 40 starting from the detection device 10 to the control device 30. At this time, the processing communication unit 130 may transmit the above azimuth and elevation angle to the control device 30 in association with the detection time. In addition, the processing communication unit 130 has a function of transferring control information acquired from the control device 30 to the imaging unit 120.

[2.3.本実施形態に係る制御装置30]
次に、本実施形態に係る制御装置30について詳細に説明する。本実施形態に係る制御装置30は、複数の探知装置10から取得した飛来物40の探知情報に基づいて、飛来物40の三次元座標位置を特定することができる。上述したとおり、上記の探知情報には、探知装置10を起点とした飛来物40の方位及び俯仰角に係る情報が含まれてよい。また、本実施形態に係る制御装置30は、特定した飛来物40の三次元座標位置に基づいて、探知装置10の撮像部120を制御し飛来物40を撮像させることができる。
[2.3. Control device 30 according to this embodiment]
Next, the control device 30 according to the present embodiment will be described in detail. The control device 30 according to the present embodiment can specify the three-dimensional coordinate position of the flying object 40 based on the detection information of the flying object 40 acquired from the plurality of detection devices 10. As described above, the detection information may include information related to the direction and elevation angle of the flying object 40 starting from the detection device 10. Moreover, the control apparatus 30 which concerns on this embodiment can control the imaging part 120 of the detection apparatus 10 based on the identified three-dimensional coordinate position of the flying object 40, and can make the flying object 40 imaged.

図3は、本実施形態に係る制御装置30の機能ブロック図である。図3を参照すると、制御装置30は、通信部310、位置特定部320、撮像制御部330、及び表示制御部340を備える。以下、制御装置30が備える各構成について詳細に説明する。   FIG. 3 is a functional block diagram of the control device 30 according to the present embodiment. Referring to FIG. 3, the control device 30 includes a communication unit 310, a position specifying unit 320, an imaging control unit 330, and a display control unit 340. Hereinafter, each component with which the control apparatus 30 is provided is demonstrated in detail.

(通信部310)
通信部310は、ネットワーク20を介して複数の探知装置10と通信を行う機能を有する。具体的には、本実施形態に係る通信部310は、複数の探知装置10から、飛来物40の方位及び俯仰角に係る情報を受信する機能を有する。また、通信部310は、後述する撮像制御部330で生成する制御情報を、探知装置10を含む複数の撮像装置に送信する機能を有する。
(Communication unit 310)
The communication unit 310 has a function of communicating with a plurality of detection devices 10 via the network 20. Specifically, the communication unit 310 according to the present embodiment has a function of receiving information related to the azimuth and elevation angle of the flying object 40 from the plurality of detection devices 10. In addition, the communication unit 310 has a function of transmitting control information generated by an imaging control unit 330 described later to a plurality of imaging devices including the detection device 10.

(位置特定部320)
位置特定部320は、複数の探知装置10から取得した探知情報に基づいて、飛来物40の三次元座標位置を特定する機能を有する。本実施形態に係る位置特定部320は、複数の探知装置10から取得した飛来物40の方位の交点を算出することで、飛来物40の三次元座標位置を特定することができる。位置特定部320による上記機能の詳細については後述する。また、位置特定部320は、探知装置10から取得した方位及び俯仰角の探知時間を、特定した飛来物40の三次元座標位置と紐付けて記録する機能を有する。なお、位置特定部320は、通信部310を介して制御装置30の外部に設置された記憶装置に上記の情報を記録させてもよい。このように外部の記憶装置に冗長的に記録することで、例えば制御装置30の設置位置が飛来物40によって攻撃された場合であっても探知情報や探知時間などの情報が破壊されることなく残せる可能性を高めることができる。
(Position specifying unit 320)
The position specifying unit 320 has a function of specifying the three-dimensional coordinate position of the flying object 40 based on the detection information acquired from the plurality of detection devices 10. The position specifying unit 320 according to the present embodiment can specify the three-dimensional coordinate position of the flying object 40 by calculating the intersection of the orientations of the flying object 40 acquired from the plurality of detection devices 10. Details of the above functions by the position specifying unit 320 will be described later. In addition, the position specifying unit 320 has a function of recording the azimuth and elevation angle detection time acquired from the detection device 10 in association with the specified three-dimensional coordinate position of the flying object 40. Note that the position specifying unit 320 may record the above information in a storage device installed outside the control device 30 via the communication unit 310. Thus, by recording redundantly in the external storage device, for example, even when the installation position of the control device 30 is attacked by the flying object 40, information such as detection information and detection time is not destroyed. The possibility of leaving can be increased.

(撮像制御部330)
撮像制御部330は、位置特定部320が特定した飛来物40の三次元座標位置に基づいて、探知装置10の撮像部120に飛来物40を撮像させる機能を有する。すなわち、撮像制御部330は、探知装置10の撮像部120が、飛来物40の三次元座標位置を捉えるように撮像方向を制御することが可能である。
(Imaging control unit 330)
The imaging control unit 330 has a function of causing the imaging unit 120 of the detection device 10 to image the flying object 40 based on the three-dimensional coordinate position of the flying object 40 specified by the position specifying unit 320. That is, the imaging control unit 330 can control the imaging direction so that the imaging unit 120 of the detection device 10 captures the three-dimensional coordinate position of the flying object 40.

また、撮像制御部330は、撮像部120のズーム倍率を制御してもよい。具体的には、撮像制御部330は、飛来物40がより大きく、より鮮明に撮像されるように、撮像部120のズーム倍率を制御することができる。この場合、撮像制御部330は、取得した飛来物40の三次元座標位置と、予め登録された飛来物40の形状特性と、に基づいて撮像部120のズーム倍率を制御してよい。飛来物40の大きさなどを含む形状特性が既知である場合、被写体距離(撮像部120と飛来物40との距離)に応じた最適なズーム倍率を設定することが可能である。上記のズーム倍率制御を行うことで、予め設定した飛来物40の大きさの動画像または静止画像をユーザに提示することが可能となり、ユーザにとって視認性の向上や確認作業の効率化を図ることができる。   Further, the imaging control unit 330 may control the zoom magnification of the imaging unit 120. Specifically, the imaging control unit 330 can control the zoom magnification of the imaging unit 120 so that the flying object 40 is larger and is captured more clearly. In this case, the imaging control unit 330 may control the zoom magnification of the imaging unit 120 based on the acquired three-dimensional coordinate position of the flying object 40 and the shape characteristics of the flying object 40 registered in advance. When the shape characteristics including the size of the flying object 40 are known, it is possible to set an optimum zoom magnification according to the subject distance (distance between the imaging unit 120 and the flying object 40). By performing the zoom magnification control described above, it becomes possible to present a moving image or a still image having a preset size of the flying object 40 to the user, thereby improving visibility and improving the efficiency of confirmation work for the user. Can do.

さらには、撮像制御部330は、撮像部120のズーム倍率と共に、オートフォーカス(AF:Autofocus)機能の実行を制御してよい。例えば、撮像制御部330は、撮像部120のズーム倍率を制御する際、撮像部120にコンティニュアスAFを実行させることができる。撮像制御部330が有する上記の機能により、飛来物40をより鮮明に撮像し、ユーザに価値の高い視覚情報を提供することが可能となる。   Furthermore, the imaging control unit 330 may control the execution of an autofocus (AF) function together with the zoom magnification of the imaging unit 120. For example, the imaging control unit 330 can cause the imaging unit 120 to execute continuous AF when controlling the zoom magnification of the imaging unit 120. With the above-described function of the imaging control unit 330, the flying object 40 can be imaged more clearly, and high-value visual information can be provided to the user.

また、本実施形態に係る撮像制御部330は、探知装置10以外の撮像装置を制御することもできる。撮像制御部330は、ネットワーク20を介して接続された複数の撮像装置を制御して、飛来物40を撮像させてよい。また、撮像制御部330は、例えば、通信部310を介して飛来物40の三次元座標位置をブロードキャストし、当該ブロードキャストの情報を受信した撮像装置に前記動的対象物を撮像させることも可能である。撮像制御部330による上記のブロードキャスト機能の詳細については後述する。   Further, the imaging control unit 330 according to the present embodiment can also control an imaging device other than the detection device 10. The imaging control unit 330 may control a plurality of imaging devices connected via the network 20 to image the flying object 40. The imaging control unit 330 can also broadcast the three-dimensional coordinate position of the flying object 40 via the communication unit 310, for example, and cause the imaging device that has received the broadcast information to image the dynamic object. is there. Details of the broadcast function by the imaging control unit 330 will be described later.

(表示制御部340)
表示制御部340は、探知装置10及び制御装置30の各構成が制御する情報を表示装置に表示させる機能を有する。すなわち、表示制御部340は、飛来物40の探知状況や挙動に係る情報をユーザに提示するための探知画面を制御することができる。
(Display control unit 340)
The display control unit 340 has a function of causing the display device to display information controlled by the components of the detection device 10 and the control device 30. That is, the display control unit 340 can control a detection screen for presenting information related to the detection status and behavior of the flying object 40 to the user.

具体的には、本実施形態に係る表示制御部340は、位置特定部320が特定した飛来物40の三次元座標位置を地図情報と対応付けて表示させる機能を有する。この際、表示制御部340は、制御装置30や外部の記憶装置に記憶される地図情報を用いてもよいし、インターネット上で提供される地図サービスなどを利用してもよい。   Specifically, the display control unit 340 according to the present embodiment has a function of displaying the three-dimensional coordinate position of the flying object 40 specified by the position specifying unit 320 in association with the map information. At this time, the display control unit 340 may use map information stored in the control device 30 or an external storage device, or may use a map service provided on the Internet.

また、本実施形態に係る表示制御部340は、探知装置10から取得した飛来物40の画像をさらに地図情報と対応付けて表示させる機能を有する。さらに、本実施形態に係る表示制御部340は、飛来物40の三次元座標位置の変化を地図情報と対応付けて表示させる機能を有する。この際、表示制御部340は、位置特定部320が記録する、探知時間と紐付いた飛来物40の三次元座標位置を用いてよい。   In addition, the display control unit 340 according to the present embodiment has a function of displaying an image of the flying object 40 acquired from the detection device 10 in association with map information. Furthermore, the display control unit 340 according to the present embodiment has a function of displaying a change in the three-dimensional coordinate position of the flying object 40 in association with the map information. At this time, the display control unit 340 may use the three-dimensional coordinate position of the flying object 40 recorded by the position specifying unit 320 and associated with the detection time.

なお、表示制御部340は、上記で説明した各種の情報を表示するための表示部としての機能を有してもよい。上記の表示部としての機能は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置などにより実現されてもよい。   The display control unit 340 may have a function as a display unit for displaying the various types of information described above. The above function as the display unit may be realized by, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or the like.

また、表示制御部340と撮像制御部330の両方、またはいずれか一方は、画像保存(キャプチャー)に係る機能を有してもよい。この場合、表示制御部340と撮像制御部330の両方、またはいずれか一方は、画像保存手段を有する。具体的には、画像保存手段は、探知装置10の撮像部120が撮像する動画像または静止画像を、制御装置30の記憶部(後述するROM872、RAM873、記憶部880、ドライブ881等)やサーバ(図1に図示されないネットワーク20に接続するWebサーバ、FTPサーバ、NAS(Network Attached Storage)等)に保存(キャプチャー)するよう制御する。なお、画像保存手段が、画像保存をする際、例えば、制御装置30または探知装置10における時刻情報(年時分秒等)、探知装置10に係わる位置情報(経度緯度高度、住所、制御装置30を基準とする方位・距離等)、飛来物40の三次元座標位置等の附帯情報を画像に付して保存するよう制御してもよい。また、画像保存手段は、画像保存をする際、画像を暗号化(画像自体を暗号化およびまたは画像ファイルを暗号化)して保存するよう制御してもよい。   Further, both or one of the display control unit 340 and the imaging control unit 330 may have a function related to image storage (capture). In this case, both or either one of the display control unit 340 and the imaging control unit 330 includes an image storage unit. Specifically, the image storage unit stores a moving image or a still image captured by the imaging unit 120 of the detection device 10 in a storage unit (a ROM 872, RAM 873, a storage unit 880, a drive 881, etc., which will be described later) or a server. Control is performed so as to be stored (captured) in a Web server, an FTP server, or a NAS (Network Attached Storage) connected to the network 20 (not shown in FIG. 1). When the image storage means stores the image, for example, time information (year hour minute second, etc.) in the control device 30 or the detection device 10, position information related to the detection device 10 (longitude / latitude altitude, address, control device 30). And the auxiliary information such as the three-dimensional coordinate position of the flying object 40 may be attached to the image and stored. Further, the image storage unit may control to store the image after encrypting the image (the image itself is encrypted and / or the image file is encrypted).

なお、撮像制御部330における画像保存手段は、撮像制御部330が探知装置10の撮像部120に飛来物40を撮像させることで得た画像を保存するよう制御してよい。また、表示制御部340における画像保存手段は、表示制御部340が表示装置に対し表示させた探知画面(位置特定部320により特定された飛来物40の三次元座標位置を地図情報と対応付けた表示を含む画面)におけるユーザ操作(保存画像選択操作、保存範囲選択操作、保存実行操作等)に基づいて画像保存を制御してよい。   The image storage unit in the imaging control unit 330 may control the imaging control unit 330 to store an image obtained by causing the imaging unit 120 of the detection apparatus 10 to capture the flying object 40. Further, the image storage means in the display control unit 340 associates the detection screen (the three-dimensional coordinate position of the flying object 40 specified by the position specifying unit 320) displayed on the display device with the map information. The image storage may be controlled based on a user operation (a stored image selection operation, a storage range selection operation, a storage execution operation, etc.) on a screen including a display.

[2.4.本実施形態に係る探知画面]
次に、本実施形態に係る探知画面について詳細に説明する。本実施形態に係る探知画面は、飛来物40の探知情報をユーザ提示するための画面である。上述したとおり、探知画面は、表示制御部340により制御される画面であってよい。また、本実施形態に係る探知画面は、制御装置30とネットワーク20を介して接続される複数の表示装置に表示されてもよい。この場合、ユーザは、スマートフォンやタブレット上で探知画面を確認することも可能である。また、複数拠点における飛来物40の探知情報を収集し、集中的にモニタリングすることも可能である。
[2.4. Detection screen according to this embodiment]
Next, the detection screen according to the present embodiment will be described in detail. The detection screen according to the present embodiment is a screen for presenting detection information of the flying object 40 to the user. As described above, the detection screen may be a screen controlled by the display control unit 340. The detection screen according to the present embodiment may be displayed on a plurality of display devices connected to the control device 30 via the network 20. In this case, the user can also check the detection screen on a smartphone or tablet. It is also possible to collect detection information of the flying object 40 at a plurality of locations and monitor it intensively.

以下、本実施形態に係る探知画面の画面構成、及び画面制御の流れについて説明する。図4は、飛来物40の探知中に係る探知画面W1の画面表示例を示している。図4を参照すると、本実施形態に係る探知画面W1は、領域R1〜R5の5つの領域を含んでいる。   Hereinafter, the screen configuration of the detection screen according to the present embodiment and the flow of screen control will be described. FIG. 4 shows a screen display example of the detection screen W <b> 1 during detection of the flying object 40. Referring to FIG. 4, the detection screen W1 according to the present embodiment includes five regions R1 to R5.

ここで、領域R1は、現在の日付及び時刻を表示するための領域であってよい。また、記録された過去の探知状況を確認する場合においては、領域R1には、当該探知状況に該当する日時情報が表示されてよい。   Here, the region R1 may be a region for displaying the current date and time. In the case where the recorded past detection situation is confirmed, date and time information corresponding to the detection situation may be displayed in the region R1.

また、領域R2は、探知装置10の設定位置や特定した飛来物40の三次元座標位置を地図情報と対応付けて表示するための領域であってよい。図4に示す一例では、2つの探知装置10の設置位置が、P1及びP2として示されている。また、C1及びC2は、それぞれP1及びP2に該当する探知装置10の探知可能範囲を示す情報であってよい。すなわち、C1は、P1に設置された探知装置10の探知可能範囲を示しており、当該探知可能範囲に飛来物40が侵入した場合、探知装置10は飛来物40の方位及び俯仰角を探知することが可能である。   The region R2 may be a region for displaying the set position of the detection device 10 and the three-dimensional coordinate position of the specified flying object 40 in association with the map information. In the example shown in FIG. 4, the installation positions of the two detection devices 10 are shown as P1 and P2. C1 and C2 may be information indicating the detectable range of the detection device 10 corresponding to P1 and P2, respectively. That is, C1 indicates the detectable range of the detection device 10 installed in P1, and when the flying object 40 enters the detectable range, the detection device 10 detects the azimuth and elevation angle of the flying object 40. It is possible.

また、領域R2には、上記で説明した各情報の他、ユーザが予め登録した拠点情報などを地図情報と対応づけて表示することもできる。これにより、ユーザは、拠点を起点とした飛来物40の方向や距離などを直観的に把握することが可能となる。なお、図4に示す例は、2つの探知装置10がいずれも飛来物40を探知していない状態を示しているため、領域R2には飛来物40に係る情報が表示されていない。   Further, in the region R2, in addition to the information described above, base information registered in advance by the user can be displayed in association with the map information. As a result, the user can intuitively grasp the direction and distance of the flying object 40 starting from the base. Note that the example shown in FIG. 4 shows a state in which neither of the two detection devices 10 detects the flying object 40, and therefore no information on the flying object 40 is displayed in the region R2.

領域R3は、探知装置10の撮像部120が撮像した画像情報を表示するための領域であってよい。図4に示す一例では、P1及びP2に設置された2つの探知装置10が撮像した画像情報が表示されている。探知装置10が動画像を撮像する機能を有する場合、領域R3に表示される画像情報は、現在時刻におけるライブ映像であってよい。なお、図4に示す例は、2つの探知装置10がいずれも飛来物40を探知していない状態を示しているため、領域R3に表示される画像情報には飛来物40が映り込んでいない。   The region R3 may be a region for displaying image information captured by the imaging unit 120 of the detection device 10. In the example shown in FIG. 4, image information captured by the two detection devices 10 installed in P1 and P2 is displayed. When the detection device 10 has a function of capturing a moving image, the image information displayed in the region R3 may be a live video at the current time. Note that the example shown in FIG. 4 shows a state in which neither of the two detection devices 10 detects the flying object 40, and therefore the flying object 40 is not reflected in the image information displayed in the region R3. .

領域R4は、飛来物40の探知に係るログ情報を表示するための領域であってよい。領域R4には、例えば、探知装置10が探知した飛来物40の方位及び俯仰角、位置特定部320が特定した飛来物40の三次元位置情報などが時間情報と共に表示されてよい。なお、図4に示す例は、2つの探知装置10がいずれも飛来物40を探知していない状態を示しているため、領域R4には上記の探知情報が表示されていない。   The region R4 may be a region for displaying log information related to detection of the flying object 40. In the region R4, for example, the azimuth and elevation angle of the flying object 40 detected by the detection device 10, the three-dimensional position information of the flying object 40 specified by the position specifying unit 320, and the like may be displayed together with time information. Note that the example shown in FIG. 4 shows a state where neither of the two detection devices 10 detects the flying object 40, and thus the detection information is not displayed in the region R4.

領域R5は、ユーザの操作を受け付ける各種のボタンを配置するための領域であってよい。図4を参照すると、領域R5には、ボタンB1〜B3の3つのボタンが配置されている。   The region R5 may be a region for arranging various buttons that accept user operations. Referring to FIG. 4, three buttons B1 to B3 are arranged in the region R5.

ここで、ボタンB1は、探知の開始や停止を操作するためのボタンであってよい。図4に示す一例では、ボタンB1には、「探知中」というテキスト情報が表示されている。ユーザは、上記の状態におけるボタンB1を選択することで、探知を停止することができてよい。また、この際、ボタンB1に表示されるテキスト情報は、例えば、「探知開始」に切り替わってもよい。ユーザは、「探知開始」状態のボタンB1を選択することで、探知装置10による飛来物40の探知を開始することができる。   Here, the button B1 may be a button for operating detection start and stop. In the example shown in FIG. 4, text information “Detecting” is displayed on the button B1. The user may be able to stop detection by selecting the button B1 in the above state. At this time, the text information displayed on the button B1 may be switched to “start detection”, for example. The user can start the detection of the flying object 40 by the detection device 10 by selecting the button B1 in the “detection start” state.

また、ボタンB2は、飛来物40の探知に係る履歴情報を表示するためのボタンであってよい。ユーザによりボタンB2が選択された際、表示制御部340は、記録されている過去の探知情報を検索し、当該情報を表示させることができる。なお、この際表示される履歴情報は、領域R4に表示されるログ情報と同様の形式であってもよいし、より詳細な探知情報が含んでもよい。また、ユーザによるボタンB2の選択により履歴情報を表示するための領域を新たに設けてもよい。例えば、図4の領域R1に対向する領域R2中の位置に履歴情報を表示してもよい。また、履歴情報を表示する領域を新たに設けなくとも、例えば図4でいうところの領域R4といった既存の領域と置きかえて切換表示してもよい。   Further, the button B2 may be a button for displaying history information related to detection of the flying object 40. When the button B2 is selected by the user, the display control unit 340 can search past detection information recorded and display the information. Note that the history information displayed at this time may be in the same format as the log information displayed in the region R4, or may include more detailed detection information. Further, an area for displaying history information may be provided by selecting the button B2 by the user. For example, history information may be displayed at a position in the region R2 facing the region R1 in FIG. Further, instead of newly providing an area for displaying history information, the display may be switched and replaced with an existing area such as the area R4 in FIG.

上記のように、表示制御部340が飛来物40の探知に係る履歴情報を表示させることで、ユーザは探知画面W1を常に確認していなくても、探知された飛来物40の情報を取得することが可能となる。なお、ユーザが確認していない履歴情報が存在する場合、表示制御部340は、ボタンB2の表示形式を強調して表示させてもよい。   As described above, the display control unit 340 displays the history information related to the detection of the flying object 40, so that even if the user does not always check the detection screen W1, the information of the detected flying object 40 is acquired. It becomes possible. When there is history information that has not been confirmed by the user, the display control unit 340 may display the button B2 with a highlighted display format.

ボタンB3は、探知システムに係る障害情報を表示するためのボタンであってよい。ユーザは、ボタンB3を選択することで、探知装置10や制御装置30に係る障害情報を閲覧することが可能である。なお、ユーザが確認していない障害情報が存在する場合、表示制御部340は、ボタンB3の表示形式を強調して表示させてもよい。   The button B3 may be a button for displaying failure information related to the detection system. The user can browse the failure information related to the detection device 10 and the control device 30 by selecting the button B3. Note that if there is failure information that has not been confirmed by the user, the display control unit 340 may display the button B3 with a highlighted display format.

以上、飛来物40の探知中に係る探知画面W1の画面表示例について説明した。続いて、図5を参照して、飛来物40を探知した際の探知画面W1の画面表示例について説明する。   The screen display example of the detection screen W1 related to the detection of the flying object 40 has been described above. Next, a screen display example of the detection screen W1 when the flying object 40 is detected will be described with reference to FIG.

図5を参照すると、図4に示した探知中に係る表示例とは異なり、領域R2には、探知された飛来物40の三次元座標位置を示すO1が表示されている。ここで、P1及びP2からO1に向けて伸張する線は、それぞれの探知装置10を起点とした飛来物40の方位と、当該探知方位の誤差範囲を示すものであってよい。また、領域R2には、飛来物40が探知されたことを示すメッセージM1が表示されている。   Referring to FIG. 5, unlike the display example during detection shown in FIG. 4, O1 indicating the three-dimensional coordinate position of the detected flying object 40 is displayed in the region R2. Here, the lines extending from P1 and P2 toward O1 may indicate the direction of the flying object 40 starting from each detection device 10 and the error range of the detection direction. In the area R2, a message M1 indicating that the flying object 40 has been detected is displayed.

図5に示すように、表示制御部340は、探知された飛来物40の三次元座標位置を地図上にプロットすることで、ユーザに飛来物40の侵入を知らせることができる。なお、この際、表示制御部340は、探知装置10の探知可能範囲を示すC1及びC2の表示色を変化させることも可能である。これにより、ユーザはより直観的に飛来物40の侵入を知覚することができる。なお、上記の色の変化は、探知装置10ごとに制御されてもよい。P1に設置された探知装置10のみが飛来物40を探知している状況においては、表示制御部340は、探知可能範囲C1の表示色のみを変更させてよい。   As shown in FIG. 5, the display control unit 340 can notify the user of the intrusion of the flying object 40 by plotting the detected three-dimensional coordinate position of the flying object 40 on the map. At this time, the display control unit 340 can also change the display colors of C1 and C2 indicating the detectable range of the detection device 10. Thereby, the user can perceive the intrusion of the flying object 40 more intuitively. Note that the above color change may be controlled for each detection device 10. In a situation where only the detection device 10 installed in P1 detects the flying object 40, the display control unit 340 may change only the display color of the detectable range C1.

また、飛来物40が探知された場合、表示制御部340は、領域R3に表示される探知装置10の撮像画像を強調して表示させてもよい。図5に示す一例では、表示制御部340は、画像の取得元である探知装置10の識別名称を強調表示している。   Further, when the flying object 40 is detected, the display control unit 340 may display the captured image of the detection device 10 displayed in the region R3 with emphasis. In the example illustrated in FIG. 5, the display control unit 340 highlights the identification name of the detection device 10 that is the image acquisition source.

なお、探知可能範囲と同様、撮像画像の強調表示は探知装置10ごとに制御されてよい。すなわち、表示制御部340は、飛来物40を探知した探知装置10により撮像された画像のみを強調して表示することができる。表示制御部340による画像の強調制御は、領域R3に表示される画像が多くなるほど有用である。ユーザは、強調された画像を視認することで、どの探知装置10により飛来物40が探知されたかを直観的に把握することができる。図5では、探知装置10の識別名称の例として、「センサアレイ1」及び「センサアレイ2」を用いているが、当該識別名称は、ユーザにより任意に設定されてよい。識別名称に、探知装置10の設置位置に係る情報、例えば、「正門」や「南門」などを用いることで、より直観的に飛来物40の探知情報を把握することもできる。   Similar to the detectable range, the highlighted display of the captured image may be controlled for each detection device 10. That is, the display control unit 340 can highlight and display only the image captured by the detection device 10 that has detected the flying object 40. Image emphasis control by the display control unit 340 is more useful as the number of images displayed in the region R3 increases. By visually recognizing the emphasized image, the user can intuitively understand which detection device 10 has detected the flying object 40. In FIG. 5, “sensor array 1” and “sensor array 2” are used as examples of identification names of the detection device 10, but the identification names may be arbitrarily set by the user. By using information related to the installation position of the detection device 10 such as “main gate” or “south gate” as the identification name, the detection information of the flying object 40 can be grasped more intuitively.

また、飛来物40が探知された場合、表示制御部340は、領域R4に飛来物40の探知情報を表示させてよい。図5に示すように、飛来物40の探知情報には、それぞれの探知装置10を起点とした飛来物40の方位、俯仰角、三次元座標位置が含まれてよい。   When the flying object 40 is detected, the display control unit 340 may display the detection information of the flying object 40 in the region R4. As shown in FIG. 5, the detection information of the flying object 40 may include the azimuth, elevation angle, and three-dimensional coordinate position of the flying object 40 starting from each detection device 10.

また、表示制御部340は、撮像部120の撮像画角情報を地図上に表示させてもよく、さらに画角範囲を領域R3と同様に強調して表示させてもよい。上記の撮影画角情報は、例えば、図5に示すP1及びP2のそれぞれに設置された探知装置10の撮像部120が撮像している撮像画角の範囲を、P1及びP2を中心として図形的視覚化したものであってもよい。上記の図形的視覚化は、例えば、P1及びP2を中心として放射して広がった図形や扇形で表現されてもよい。また、上記の図形的視覚化は、撮像方向の中心を表す線などを地図上に表示し、撮像部120の撮像画角情報である画角の範囲の表示色を変更することで表現されてもよい。このとき、表示制御部340は、画角の範囲の表示色と、領域R3に表示される探知装置10の識別名称の表示色とが同一色となるように強調表示の制御を行ってよい。これにより、ユーザは、領域R3に示される撮像内容が、どの探知装置10が備える撮像部120の、どの角度から撮像された映像かを直感的に把握することができる。また、図4、図5には図示しないが、新たに撮像部120の撮像角度と方位を対応付ける図を表示する領域を設けてもよい。例えば、撮像部120が360度全方位カメラの場合、360度方位情報と撮像部120の画角情報を予め紐付けておき、撮像部120の撮像画角情報と連動させることで撮像部120の撮像画角を視覚的に認識することができる。このとき、上記の新たな領域には、例えば、360度のドーナツ型に表示される撮影画角や、360度全方位カメラが撮像した実画像が表示されてもよい。   Further, the display control unit 340 may display the imaging field angle information of the imaging unit 120 on a map, and may further display the field angle range with emphasis similarly to the region R3. The above-described shooting angle of view information is, for example, a graphic range around P1 and P2 that is the range of the angle of view captured by the imaging unit 120 of the detection device 10 installed in each of P1 and P2 shown in FIG. It may be visualized. The graphic visualization described above may be expressed by, for example, a figure or a fan-shaped figure that radiates and spreads around P1 and P2. In addition, the above-described graphical visualization is expressed by displaying a line representing the center of the imaging direction on the map and changing the display color of the range of the angle of view that is the imaging angle of view information of the imaging unit 120. Also good. At this time, the display control unit 340 may perform highlight control so that the display color of the range of the angle of view and the display color of the identification name of the detection device 10 displayed in the region R3 are the same color. Thereby, the user can intuitively grasp from which angle the imaging unit 120 included in which detection device 10 captures the image captured in the region R3. Although not shown in FIGS. 4 and 5, a region for displaying a diagram that associates the imaging angle and orientation of the imaging unit 120 may be newly provided. For example, when the imaging unit 120 is a 360-degree omnidirectional camera, the 360-degree azimuth information and the angle-of-view information of the imaging unit 120 are linked in advance, and linked with the imaging-angle-of-view information of the imaging unit 120. The imaging angle of view can be visually recognized. At this time, for example, an imaging angle of view displayed in a 360-degree donut shape or an actual image captured by a 360-degree omnidirectional camera may be displayed in the new area.

以上、本実施形態に係る探知画面について説明した。上記で述べたとおり、本実施形態に係る表示制御部340は、飛来物40の三次元座標位置を地図情報と対応付けて表示させることができる。また、本実施形態に係る表示制御部340は、飛来物40の撮像画像をユーザに提示することができる。これにより、ユーザは、侵入した飛来物40の探知情報を視覚的に確認することができ、当該飛来物40に対する対策を実施することが可能となる。   The detection screen according to the present embodiment has been described above. As described above, the display control unit 340 according to the present embodiment can display the three-dimensional coordinate position of the flying object 40 in association with the map information. Further, the display control unit 340 according to the present embodiment can present a captured image of the flying object 40 to the user. Thereby, the user can visually confirm the detection information of the invading flying object 40, and can take measures against the flying object 40.

なお、上記では、飛来物40の三次元座標位置が特定されたことに基づいて、表示制御部340が当該位置情報を地図上にプロットする場合を例に説明したが、本実施形態に係るプロットは係る例に限定されない。表示制御部340は、飛来物40の三次元座標位置が所定の回数以上、特定されたことに基づいて、当該位置情報を地図上にプロットしてもよい。例えば、所定の回数が5回の場合、表示制御部340は、所定の時間内(例えば5秒)に5回の三次元座標位置が特定されたタイミング、または探知装置10より受信する探知情報から連続して三次元座標位置が5回特定されたタイミングで、地図上に当該位置情報をプロットしてよい。後述する探知情報の読込間隔の場合、上記の連続特定のタイミングは、2.5秒の間で5回三次元座標位置が特定された場合を指す。また、地図上にプロットされる位置情報は、特定された全ての位置情報、すなわち上記の例でいう5つの位置情報であってもよいし、特定された最後の位置情報、すなわち上記の例でいう5回目に特定された位置情報のみであってもよい。表示制御部340が飛来物40の探知情報を複数回取得してプロットを制御することで、飛来物40の探知情報を表示する際、飛来物40の探知情報をより確実な侵入情報としてユーザに提示することが可能となる。また、表示制御部340は、飛来物40の三次元座標位置が特定された後、探知装置10により撮像された飛来物40の画像情報を照合し、当該画像が予め登録された飛来物40の画像情報と一致することに基づいて、プロットを行ってもよい。表示制御部340が画像照合を行うことで、飛来物40の探知情報の正誤を判定し、飛来物40の探知情報をより確実な侵入情報としてユーザに提示することが可能となる。また、表示制御部340は、飛来物40の三次元座標位置が複数回特定された後、飛来物40の移動方向が所定の方向(施設の方向など)を示していることに基づいて、プロットを行ってもよい。さらに、表示制御部340は、飛来物40の三次元座標位置が複数回特定された後、飛来物40の移動方向が所定の方向(施設の方向など)を示していないことに基づいて、プロットを行わず経過監視を行ってもよい。例えば、表示制御部340は、所定の時間内に複数の三次元座標位置が特定された場合、探知時間と三次元座標位置の時系列関係から飛来物40の移動方向を特定することができる。この際、表示制御部340は、予め登録した地点や領域に飛来物40の移動方向が向いていることに基づいて、地図上に位置情報をプロットしてよい。なお、上記の予め登録した地点や領域は、侵入を防ぎたい領域や施設の位置に応じて定められてよい。一方、表示制御部340は、予め登録した地点や領域に飛来物40の移動方向が向いていない場合は、位置情報をプロットしないように制御する。表示制御部340が上記の制御を行うことで、ユーザにとって危険な侵入の可能性が高い、特定領域へ向かって継続的に侵入する飛来物40に係る探知情報のみをユーザに提示することが可能となる。また、探知可能範囲において探知はしたがユーザにとって危険の低い探知情報を非提示とすることでユーザの確認負担を軽減することができる。   In the above description, the case where the display control unit 340 plots the position information on the map based on the three-dimensional coordinate position of the flying object 40 has been specified, but the plot according to the present embodiment. Is not limited to such an example. The display control unit 340 may plot the position information on the map based on the fact that the three-dimensional coordinate position of the flying object 40 has been specified a predetermined number of times or more. For example, when the predetermined number of times is five, the display control unit 340 determines the timing at which five three-dimensional coordinate positions are specified within a predetermined time (for example, 5 seconds) or detection information received from the detection device 10. The position information may be plotted on the map at the timing when the three-dimensional coordinate position is specified five times in succession. In the case of the detection information reading interval, which will be described later, the above-described continuous specifying timing indicates a case where the three-dimensional coordinate position is specified five times in 2.5 seconds. Further, the position information plotted on the map may be all specified position information, that is, the five position information in the above example, or the last specified position information, that is, in the above example. Only the position information specified for the fifth time may be used. When the display control unit 340 acquires the detection information of the flying object 40 a plurality of times and controls the plot to display the detection information of the flying object 40, the detection information of the flying object 40 is displayed to the user as more reliable intrusion information. It can be presented. In addition, after the three-dimensional coordinate position of the flying object 40 is specified, the display control unit 340 collates the image information of the flying object 40 captured by the detection device 10 and the image of the flying object 40 in which the image is registered in advance. Plotting may be performed based on matching with the image information. When the display control unit 340 performs image collation, it is possible to determine whether the detection information of the flying object 40 is correct and to present the detection information of the flying object 40 to the user as more reliable intrusion information. In addition, the display control unit 340 performs plotting based on the movement direction of the flying object 40 indicating a predetermined direction (facility direction, etc.) after the three-dimensional coordinate position of the flying object 40 is specified a plurality of times. May be performed. Further, the display control unit 340 plots based on the fact that the moving direction of the flying object 40 does not indicate a predetermined direction (such as the direction of the facility) after the three-dimensional coordinate position of the flying object 40 is specified a plurality of times. The progress monitoring may be performed without performing the above. For example, when a plurality of three-dimensional coordinate positions are specified within a predetermined time, the display control unit 340 can specify the moving direction of the flying object 40 from the time series relationship between the detection time and the three-dimensional coordinate position. At this time, the display control unit 340 may plot the position information on the map based on the fact that the moving direction of the flying object 40 is directed to a spot or region registered in advance. Note that the previously registered points and regions may be determined according to the region or facility position where it is desired to prevent intrusion. On the other hand, the display control unit 340 performs control so that the position information is not plotted when the moving direction of the flying object 40 does not face a previously registered spot or region. When the display control unit 340 performs the above-described control, it is possible to present only the detection information related to the flying object 40 that continuously enters the specific area, which is highly likely to be dangerous for the user. It becomes. In addition, the detection burden on the user can be reduced by not presenting detection information that has been detected within the detectable range but is less dangerous for the user.

[2.5.探知画面の制御の流れ]
次に、本実施形態に係る探知画面の制御の流れについて説明する。図6は、本実施形態に係る制御装置30による探知画面の制御の流れを示すフローチャートでる。なお、以下では、制御装置30が2つの探知装置10と接続される場合を例に説明する。
[2.5. Flow of detection screen control]
Next, the flow of control of the detection screen according to the present embodiment will be described. FIG. 6 is a flowchart showing a flow of control of the detection screen by the control device 30 according to the present embodiment. Hereinafter, a case where the control device 30 is connected to the two detection devices 10 will be described as an example.

図6を参照すると、制御装置30は、まず、2つの探知装置10の緯度、経度、及び基準角に係る情報を読み込む(S1101)。ここで、上記の緯度、経度、及び基準角は、探知装置10ごとに予め取得されている情報であってよい。なお、上記の基準角は経線に対する角度及び俯仰角であってもよい。また、基準角は、探知装置10の撮像部120が初回起動時に捉える方向であってよい。基準角はユーザにより設定され得る角度情報であり、例えば、0°であってもよい。   Referring to FIG. 6, the control device 30 first reads information on the latitude, longitude, and reference angle of the two detection devices 10 (S1101). Here, the latitude, longitude, and reference angle may be information acquired in advance for each detection device 10. Note that the reference angle may be an angle with respect to a meridian and an elevation angle. Further, the reference angle may be a direction that the imaging unit 120 of the detection device 10 captures at the first activation. The reference angle is angle information that can be set by the user, and may be 0 °, for example.

次に、制御装置30の位置特定部320は、2つの探知装置10の間の直線距離Lを算出する(S1102)。位置特定部320は、ステップS1101で読み込んだ探知装置の緯度及び経度に基づいて上記の直線距離Lを算出することができる。   Next, the position specifying unit 320 of the control device 30 calculates a linear distance L between the two detection devices 10 (S1102). The position specifying unit 320 can calculate the linear distance L based on the latitude and longitude of the detection device read in step S1101.

次に、表示制御部340は、ユーザにより探知開始が指示されているか否かを判定する(S1103)。すなわち、表示制御部340は、探知画面W1において、ボタンB1が、「探知中」の状態となっているか否かを判定する。ここで、ユーザにより探知開始が指示されていない場合(S1103:No)、表示制御部340は、探知画面の制御を終了する。   Next, the display control unit 340 determines whether or not an instruction to start detection is given by the user (S1103). That is, the display control unit 340 determines whether or not the button B1 is in the “detecting” state on the detection screen W1. Here, when the start of detection is not instructed by the user (S1103: No), the display control unit 340 ends the control of the detection screen.

一方、ユーザにより探知開始が指示されている場合(S1103:Yes)、制御装置30は所定時間だけ待機を行う(S1104)。ここで、上記の所定時間は、制御装置30が探知装置10から探知情報を読み込む間隔を示すものであってよい。上記の所定時間は、例えば、0.5秒であってもよい。この場合、制御装置30は、0.5秒間隔で探知装置10から探知情報の読込を行う(S1105)。なお、上記の間隔による探知情報の通信は、探知装置10により制御されてもよい。この場合、探知装置10は、位置特定部320相当の構成をさらに備え、センサ部110が探知した情報を基に後述するステップS1106の判定を行ってよい。ここで、飛来物40を探知したと判定した場合、探知装置10は、制御装置30に探知情報を送信することができる。これにより、制御装置30は所定の間隔で探知装置10の探知情報を読み込む必要がなくなり、適切なタイミングで必要な情報だけを受け取ることが可能となる。   On the other hand, when the start of detection is instructed by the user (S1103: Yes), the control device 30 stands by for a predetermined time (S1104). Here, the predetermined time may indicate an interval at which the control device 30 reads detection information from the detection device 10. The predetermined time may be 0.5 seconds, for example. In this case, the control device 30 reads detection information from the detection device 10 at intervals of 0.5 seconds (S1105). The communication of detection information at the above intervals may be controlled by the detection device 10. In this case, the detection device 10 may further include a configuration corresponding to the position specifying unit 320, and may perform the determination in step S1106 described later based on the information detected by the sensor unit 110. If it is determined that the flying object 40 has been detected, the detection device 10 can transmit detection information to the control device 30. Thereby, the control device 30 does not need to read the detection information of the detection device 10 at a predetermined interval, and can receive only necessary information at an appropriate timing.

再び図6を参照して、制御装置30による制御について説明を続ける。ステップS1105における処理の後、位置特定部320は、探知装置10から読み込んだ情報を基に、飛来物40が探知されたか否かの判定を行う(S1106)。ここで、飛来物40が探知されていないと判定された場合(S1106:No)、制御装置30はステップS1103に復帰し、以降の処理を繰り返し実行する。   With reference to FIG. 6 again, the description of the control by the control device 30 will be continued. After the processing in step S1105, the position specifying unit 320 determines whether or not the flying object 40 has been detected based on the information read from the detection device 10 (S1106). If it is determined that the flying object 40 has not been detected (S1106: No), the control device 30 returns to step S1103 and repeats the subsequent processing.

一方、飛来物40が探知されたと判定された場合(S1106:Yes)、位置特定部320は、複数の探知装置10から取得した探知情報に基づいて、交点計算を実行する(S1107)。ここで、上記の交点とは、それぞれの探知装置10を起点とした飛来物40の方位に係る交点であってよい。なお、交点計算の詳細については、後述する。   On the other hand, when it determines with the flying object 40 having been detected (S1106: Yes), the position specific | specification part 320 performs an intersection calculation based on the detection information acquired from the some detection apparatus 10 (S1107). Here, the above-mentioned intersection point may be an intersection point related to the direction of the flying object 40 starting from each detection device 10. Details of the intersection calculation will be described later.

次に、表示制御部340は、ステップS1107における交点計算により算出された飛来物40の三次元座標位置を取得し、当該位置情報を地図情報に対応付けて探知画面W1に表示させる(S1108)。   Next, the display control unit 340 acquires the three-dimensional coordinate position of the flying object 40 calculated by the intersection calculation in step S1107, and displays the position information in association with the map information on the detection screen W1 (S1108).

また、撮像制御部330は、飛来物40の三次元座標位置に基づいて、探知装置10の撮像部120を制御する(S1109)。この際、撮像制御部330は、読み込んだ方位及び俯仰角と、所定時間前に読み込んだ同一の探知装置10が取得した方位及び俯仰角と、の差を算出することで撮像部120の変位角度を算出し、当該撮像部120を制御してもよい。なお、ステップS1108及びS1109は、並行して実行されてよい。   Further, the imaging control unit 330 controls the imaging unit 120 of the detection device 10 based on the three-dimensional coordinate position of the flying object 40 (S1109). At this time, the imaging control unit 330 calculates the difference between the read azimuth and elevation angle and the azimuth and elevation angle acquired by the same detection device 10 read a predetermined time ago to thereby calculate the displacement angle of the imaging unit 120. And the imaging unit 120 may be controlled. Note that steps S1108 and S1109 may be executed in parallel.

以降、制御装置30は、ユーザにより探知の停止が指示されるまで、ステップS1103〜S1109も処理を繰り返し実行する。   Thereafter, the control device 30 repeatedly executes the processes in steps S1103 to S1109 until the user instructs to stop the detection.

[2.6.交点計算に係る制御の流れ]
次に、本実施形態の交点計算に係る制御の流れについて説明する。図7は、本実施形態に係る位置特定部320による交点計算の流れを示すフローチャートでる。なお、以下では、制御装置30が2つの探知装置10と接続される場合を例に説明する。
[2.6. Control flow for intersection calculation]
Next, the flow of control related to the intersection calculation of this embodiment will be described. FIG. 7 is a flowchart showing a flow of intersection calculation by the position specifying unit 320 according to the present embodiment. Hereinafter, a case where the control device 30 is connected to the two detection devices 10 will be described as an example.

図7を参照すると、位置特定部320は、まず、探知装置10から探知情報を受信できたか否かを判定する(S1201)。なお、上記の判定では、受信情報のバリデーションチェックなどが同時に行われてもよい。ここで、探知装置10からの探知情報が正常に受信できていない場合(S1201:No)、位置特定部320は交点計算に係る処理を終了する。   Referring to FIG. 7, the position specifying unit 320 first determines whether or not detection information has been received from the detection device 10 (S1201). In the above determination, a validation check of received information may be performed at the same time. Here, when the detection information from the detection device 10 is not normally received (S1201: No), the position specifying unit 320 ends the process related to the intersection calculation.

一方、探知装置10から探知情報が正常に受信されている場合(S1201:Yes)、位置特定部320は、複数の探知装置10からの探知情報を受信しているか否かを判定する(S1202)。ここで、取得した探知情報が単一の探知装置10から送信されたものである場合(S1202:No)、交点を検出することができないため、位置特定部320は交点計算に係る処理を終了する。   On the other hand, when the detection information is normally received from the detection device 10 (S1201: Yes), the position specifying unit 320 determines whether the detection information from the plurality of detection devices 10 is received (S1202). . Here, when the acquired detection information is transmitted from a single detection device 10 (S1202: No), the position specifying unit 320 ends the process related to the intersection calculation because the intersection cannot be detected. .

一方、複数の探知装置10からの探知情報を受信している場合(S1203:Yes)、位置特定部320は、探知装置10が探知した飛来物40の方位に交点が存在するか否かを判定する(S1203)。この際、位置特定部320は、下記の数式(1)を用いて上記の判定を行うことができる。   On the other hand, when detecting information from a plurality of detecting devices 10 is received (S1203: Yes), the position specifying unit 320 determines whether or not an intersection exists in the direction of the flying object 40 detected by the detecting device 10. (S1203). At this time, the position specifying unit 320 can make the above determination using the following mathematical formula (1).

Figure 2017156122
Figure 2017156122

上記の数式(1)において、θ1及びθ2は、2つの探知装置10が探知した飛来物40の方位をそれぞれ示す値であってよい。また、θ1及びθ2は、0°方向に対する水平方向の角度を示す値であってよい。位置特定部320は、上記の数式(1)により、2つの探知装置10が探知した飛来物40の方位に交点が存在するか否かを判定することができる。   In the above mathematical formula (1), θ1 and θ2 may each be a value indicating the orientation of the flying object 40 detected by the two detection devices 10. Further, θ1 and θ2 may be values indicating the angle in the horizontal direction with respect to the 0 ° direction. The position specifying unit 320 can determine whether or not there is an intersection point in the direction of the flying object 40 detected by the two detection devices 10 according to the above mathematical expression (1).

ここで、交点が存在しないと判定した場合(S1203:No)、位置特定部320は交点計算に係る処理を終了する。   Here, when it is determined that the intersection does not exist (S1203: No), the position specifying unit 320 ends the process related to the intersection calculation.

一方、交点が存在すると判定した場合(S1203:Yes)、位置特定部320は、交点の水平距離を算出する(S1204)。すなわち、位置特定部320は、交点のX軸上の距離及びY軸上の距離を算出する。この際、位置特定部320は、下記の数式(2)及び数式(3)を用いて、計算を行うことができる。   On the other hand, when it is determined that an intersection exists (S1203: Yes), the position specifying unit 320 calculates the horizontal distance of the intersection (S1204). That is, the position specifying unit 320 calculates the distance on the X axis and the distance on the Y axis of the intersection. At this time, the position specifying unit 320 can perform calculation using the following mathematical formulas (2) and (3).

Figure 2017156122
Figure 2017156122

図8は、位置特定部320が行う交点計算を模式的に表した図である。図8には、2つの探知装置10a及び10bと、探知装置10a及び10bがそれぞれ探知した飛来物40の方位θ1及びθ2が示されている。また、上述したとおり、Lは探知装置10a及び10bの間の直線距離を示す値であってよい。図8に示すように、位置特定部320は、2つの探知装置10a及び10bが探知した飛来物40の方位θ1及びθ2と、直線距離Lの値を得ることで、交点(X,Y)を算出することが可能である。 FIG. 8 is a diagram schematically illustrating intersection calculation performed by the position specifying unit 320. FIG. 8 shows the two detection devices 10a and 10b and the orientations θ1 and θ2 of the flying object 40 detected by the detection devices 10a and 10b, respectively. Further, as described above, L may be a value indicating a linear distance between the detection devices 10a and 10b. As shown in FIG. 8, the position specifying unit 320 obtains the azimuths θ1 and θ2 of the flying object 40 detected by the two detection devices 10a and 10b and the value of the linear distance L, thereby obtaining the intersection (X C , Y C ) Can be calculated.

再び、図7を参照して説明を続ける。ステップS1204において交点のX軸上の距離及びY軸上の距離を算出した後、位置特定部320は、交点の垂直距離を算出する(S1205)。すなわち、位置特定部320は、交点のZ軸上の距離を算出する。この際、位置特定部320は、下記の数式(4)を用いて、計算を行うことができる。   The description will be continued again with reference to FIG. In step S1204, after calculating the distance on the X axis and the distance on the Y axis of the intersection, the position specifying unit 320 calculates the vertical distance of the intersection (S1205). That is, the position specifying unit 320 calculates the distance on the Z axis at the intersection. At this time, the position specifying unit 320 can perform calculation using the following mathematical formula (4).

Figure 2017156122
Figure 2017156122

上記の数式(4)において、φは、探知装置10が探知した飛来物40の俯仰角を示す値であってよい。すなわち、位置特定部320は、上記の数式(2)及び数式(3)により算出したX軸上の距離及びY軸上の距離と、飛来物40の俯仰角と、を用いて、交点のZ軸上の距離を算出することができる。   In the above mathematical formula (4), φ may be a value indicating the elevation angle of the flying object 40 detected by the detection device 10. That is, the position specifying unit 320 uses the distance on the X axis and the distance on the Y axis calculated by the above mathematical expressions (2) and (3) and the elevation angle of the flying object 40 to determine the Z of the intersection. The distance on the axis can be calculated.

交点のZ軸上の距離を算出した後、位置特定部320は、算出した交点情報を表示制御部340に引き渡し(S1206)、交点計算に係る処理を終了する。   After calculating the distance of the intersection point on the Z axis, the position specifying unit 320 passes the calculated intersection point information to the display control unit 340 (S1206), and ends the processing related to the intersection point calculation.

以上説明したように、本実施形態に係る位置特定部320は、2つの探知装置10a及び10bから取得した探知情報に基づいて、飛来物40の三次元座標位置を特定することが可能である。位置特定部320が有する上記の機能により、本実施形態に係る制御装置30は、飛来物40の位置情報をユーザに提供することができる。   As described above, the position specifying unit 320 according to the present embodiment can specify the three-dimensional coordinate position of the flying object 40 based on the detection information acquired from the two detection devices 10a and 10b. With the above-described function of the position specifying unit 320, the control device 30 according to the present embodiment can provide position information of the flying object 40 to the user.

<3.第2の実施形態>
続いて、本発明に係る第2の実施形態について説明する。本発明に係る第2の実施形態では、位置特定部320が特定した飛来物40の三次元座標位置の変化を地図情報と対応づけて表示させることが可能である。なお、以下の説明においては、第1の実施形態との差異を中心に述べる。探知装置10及び制御装置30の構成や、飛来物40の三次元座標位置の特定については、第1の実施形態と共通しているため、説明を省略する。
<3. Second Embodiment>
Next, a second embodiment according to the present invention will be described. In the second embodiment according to the present invention, it is possible to display the change in the three-dimensional coordinate position of the flying object 40 specified by the position specifying unit 320 in association with the map information. In the following description, differences from the first embodiment will be mainly described. About the structure of the detection apparatus 10 and the control apparatus 30, and the specification of the three-dimensional coordinate position of the flying object 40, since it is common in 1st Embodiment, description is abbreviate | omitted.

図9は、本実施形態に係る探知画面に表示される領域R2を示す図である。図9を参照すると、図5を用いて説明した第1の実施形態に係る領域R2の表示に加え、第2の実施形態に係る領域R2には、過去に特定された飛来物40の三次元座標位置を示す軌跡F1及びF2が表示されている。また、軌跡F1及びF2には、それぞれ飛来物40の三次元座標位置を特定した際の飛来物40の撮像画像S1及びS2が対応付いて表示されている。   FIG. 9 is a diagram showing a region R2 displayed on the detection screen according to the present embodiment. Referring to FIG. 9, in addition to the display of the region R <b> 2 according to the first embodiment described with reference to FIG. 5, the region R <b> 2 according to the second embodiment includes the three-dimensional of the flying object 40 specified in the past. Trajectories F1 and F2 indicating coordinate positions are displayed. In addition, captured images S1 and S2 of the flying object 40 when the three-dimensional coordinate position of the flying object 40 is specified are displayed in association with the trajectories F1 and F2, respectively.

このように、本発明に係る第2の実施形態では、飛来物40に係る位置情報の変化を地図上にプロットしてユーザに提供することが可能である。表示制御部340は、記録された飛来物40の三次元座標位置の履歴を取得し、探知画面の表示を制御することができる。本実施形態に係る上記の機能により、ユーザは、飛来物40の挙動をより詳細に把握することができる。特に、飛来物40の移動方向を把握することが可能となるため、ユーザは、飛来物40に対する適切な対策を講じることができる。   As described above, in the second embodiment according to the present invention, it is possible to plot the change of the position information related to the flying object 40 on the map and provide it to the user. The display control unit 340 can acquire the recorded history of the three-dimensional coordinate position of the flying object 40 and control the display of the detection screen. With the function according to the present embodiment, the user can grasp the behavior of the flying object 40 in more detail. In particular, since the moving direction of the flying object 40 can be grasped, the user can take appropriate measures against the flying object 40.

なお、図9では、飛来物40の軌跡を地図上に点でプロットする場合を例示したが、本実施形態に係る軌跡の表示は係る例に限定されない。本実施形態に係る飛来物40の軌跡は、移動方向を示す矢印などの線によって示されてもよい。また、飛来物40の軌跡は、3D表示により、より詳細に表示されてもよい。さらには、ユーザの操作により、上記で例示した表示形式が切り替わるように構成することも可能である。表示制御部340が上記の機能を有することで、ユーザのニーズに合わせた情報を提供することが可能となる。   In addition, in FIG. 9, although the case where the locus | trajectory of the flying object 40 was plotted with a point on a map was illustrated, the display of the locus | trajectory which concerns on this embodiment is not limited to the example which concerns. The trajectory of the flying object 40 according to the present embodiment may be indicated by a line such as an arrow indicating the moving direction. Further, the trajectory of the flying object 40 may be displayed in more detail by 3D display. Furthermore, the display format exemplified above can be switched by a user operation. Since the display control unit 340 has the above function, it is possible to provide information that meets the needs of the user.

<4.第3の実施形態>
続いて、本発明に係る第3の実施形態について説明する。本発明に係る第3の実施形態では、位置特定部320が特定した飛来物40の三次元座標位置をブロードキャストし、当該ブロードキャストに係る情報を受信した撮像装置に飛来物40を撮像させることが可能である。なお、以下の説明においては、第1の実施形態、及び第2の実施形態との差異を中心に述べる。探知装置10及び制御装置30の構成や、飛来物40の三次元座標位置の特定については、第1の実施形態及び第2の実施形態と共通しているため、説明を省略する。
<4. Third Embodiment>
Subsequently, a third embodiment according to the present invention will be described. In the third embodiment according to the present invention, it is possible to broadcast the three-dimensional coordinate position of the flying object 40 specified by the position specifying unit 320 and cause the imaging device that has received the information related to the broadcast to image the flying object 40. It is. In the following description, differences from the first embodiment and the second embodiment will be mainly described. About the structure of the detection apparatus 10 and the control apparatus 30, and specification of the three-dimensional coordinate position of the flying object 40, since it is common in 1st Embodiment and 2nd Embodiment, description is abbreviate | omitted.

図10は、本実施形態に係る探知画面に表示される領域R2を示す図である。図10を参照すると、図5を用いて説明した第1の実施形態に係る領域R2の表示に加え、第3の実施形態に係る領域R2には、制御装置30の設置位置を示すP3と、制御装置30からのブロードキャストを受信する2つの撮像装置の設置位置P4及びP5とが表示されている。   FIG. 10 is a diagram showing a region R2 displayed on the detection screen according to the present embodiment. Referring to FIG. 10, in addition to the display of the region R2 according to the first embodiment described with reference to FIG. 5, the region R2 according to the third embodiment includes P3 indicating the installation position of the control device 30, and The installation positions P4 and P5 of the two imaging devices that receive the broadcast from the control device 30 are displayed.

本実施形態に係る制御装置30は、設置位置P1及びP2に設置された探知装置10からの探知情報に基づいて飛来物40の三次元座標位置を特定し、当該位置情報をブロードキャストにより発信することが可能である。この際、制御装置30は、飛来物40の三次元座標位置をGPS座標に変換してブロードキャストしてもよい。上記のブロードキャストを受信した撮像装置は、受信した飛来物40の位置情報に基づいて、飛来物40の撮像を行う。このとき、撮像装置は設置位置を特定するための設置位置特定手段を備えてもよい。撮像装置は例えばGPS機能により緯度、経度を取得し、基準角を撮像装置が初回起動時に捉える方向として設定してもよい。基準角はユーザにより設定され得る角度情報であり、例えば、0°であってもよい。撮像装置は、受信した飛来物40の位置情報、及び自身の設置位置情報から飛来物40の方位を算出し、上述の基準角との差を求めて撮像部を飛来物40の方位に向ける。   The control device 30 according to the present embodiment specifies the three-dimensional coordinate position of the flying object 40 based on the detection information from the detection device 10 installed at the installation positions P1 and P2, and transmits the position information by broadcast. Is possible. At this time, the control device 30 may convert the three-dimensional coordinate position of the flying object 40 into a GPS coordinate and broadcast it. The imaging device that has received the broadcast performs imaging of the flying object 40 based on the received position information of the flying object 40. At this time, the imaging apparatus may include an installation position specifying unit for specifying the installation position. For example, the imaging device may acquire latitude and longitude by the GPS function, and set the reference angle as a direction that the imaging device captures at the first activation. The reference angle is angle information that can be set by the user, and may be 0 °, for example. The imaging device calculates the azimuth of the flying object 40 from the received position information of the flying object 40 and its own installation position information, and obtains the difference from the above-described reference angle to point the imaging unit toward the flying object 40.

以上説明したように、本実施形態に係る制御装置30によれば、探知装置10とは異なる撮像装置に飛来物40を撮像させることが可能となる。このため、本実施形態では、飛来物40の探知に係るセンサを備えない装置を探知システムの一部として活用することができる。ブロードキャストを受信する撮像装置は、既存に設置された防犯カメラなどであってもよい。制御装置30の有するブロードキャスト機能を用いることで、探知システムに係るコストを低減することができる。   As described above, according to the control device 30 according to the present embodiment, the flying object 40 can be imaged by an imaging device different from the detection device 10. For this reason, in this embodiment, the apparatus which is not provided with the sensor which concerns on the detection of the flying object 40 can be utilized as a part of detection system. The imaging device that receives the broadcast may be an existing security camera or the like. By using the broadcast function of the control device 30, it is possible to reduce the cost associated with the detection system.

また、本実施形態に係るブロードキャスト機能によれば、飛来物40を多様な方向から撮像することが可能である。本特徴は、例えば、雲の影響などにより探知装置10が飛来物40の映像を捉えられない場合、特に有用な効果を奏する。本実施形態に係る探知システムでは、上記のような状況においても、他の撮像装置により飛来物40を撮像し、ユーザに情報を提供することが可能である。この場合、表示制御部340は、図4及び図5に示した領域R3に、探知装置10(図10のP1,P2)が撮像した画像情報に加え、P4及びP5に設置される撮像装置が撮像した画像情報を表示させてもよい。表示制御部340は、例えば、図5の領域R3に表示される上述の探知装置10の識別名称のセンサアレイ1、センサアレイ2に加えて、P4及びP5に設置される撮像装置の識別名称を撮像装置1、撮像装置2として、それぞれの撮像装置が撮像した画像情報を表示させてもよい。また、表示制御部340は、第2の実施形態のように図10の探知画面に表示される領域R2に、飛来物40の三次元座標位置をブロードキャストして撮像した際の飛来物40の撮像画像を飛来物40の三次元座標位置に対応付けて表示させてもよい。この場合、ブロードキャストを受信したP4及びP5の撮像装置により撮像した画像が飛来物40の三次元座標位置に対応付けられて表示される。   Further, according to the broadcast function according to the present embodiment, the flying object 40 can be imaged from various directions. This feature is particularly useful when the detection device 10 cannot capture the image of the flying object 40 due to, for example, the influence of clouds. In the detection system according to the present embodiment, even in the above situation, the flying object 40 can be imaged by another imaging device and information can be provided to the user. In this case, in addition to the image information captured by the detection device 10 (P1 and P2 in FIG. 10), the display control unit 340 includes image capturing devices installed in P4 and P5 in the region R3 illustrated in FIGS. The captured image information may be displayed. For example, the display control unit 340 displays the identification names of the imaging devices installed in P4 and P5 in addition to the sensor arrays 1 and 2 of the identification names of the detection devices 10 displayed in the region R3 of FIG. As the imaging device 1 and the imaging device 2, image information captured by each imaging device may be displayed. Further, the display control unit 340 images the flying object 40 when the three-dimensional coordinate position of the flying object 40 is broadcast and imaged in the region R2 displayed on the detection screen of FIG. 10 as in the second embodiment. The image may be displayed in association with the three-dimensional coordinate position of the flying object 40. In this case, images captured by the P4 and P5 imaging devices that have received the broadcast are displayed in association with the three-dimensional coordinate position of the flying object 40.

さらに、本実施形態に係るブロードキャストは、ユーザ操作により情報を送信するタイミングが決定されてもよい。この場合、図4、図5には図示しないが、ブロードキャストを実行し他の撮像装置より画像を取得するためのボタンを設けてもよい。例えば、上述の第1の実施形態によって取得した画像情報からユーザの所望する画像情報が得られなかったとユーザが判断した場合に、上記のブロードキャストに係るボタンを選択することで新たに他の撮像装置より画像情報を得ることができる。   Furthermore, in the broadcast according to the present embodiment, the timing for transmitting information may be determined by a user operation. In this case, although not shown in FIGS. 4 and 5, a button for executing broadcasting and acquiring an image from another imaging apparatus may be provided. For example, when the user determines that the image information desired by the user cannot be obtained from the image information acquired according to the first embodiment, another image pickup apparatus is newly selected by selecting the button related to the broadcast. More image information can be obtained.

また、ブロードキャスト機能を有する制御装置30はブロードキャストをする際に送信出力を制御する送信出力制御手段を備えてもよい。さらに、制御装置30は、上記のブロードキャストに係るボタンがユーザ操作により選択されたことに基づいて、送信出力を制御してもよい。例えば、基準の出力を100mWとし、100mWで届く範囲が100mである場合、ユーザは、ボタン操作により出力を120mWと高く制御することで、ブロードキャストの範囲を例えば200mに拡大することができてよい。これにより、ユーザは、遠方に設置される撮像装置をブロードキャストの範囲に含めることができる。一方で、近くに設置される撮像装置の範囲でブロードキャストしたい際には、出力を50mWと低く制御することで例えば50mといった狭域範囲にブロードキャストすることができる。   In addition, the control device 30 having a broadcast function may include a transmission output control unit that controls transmission output when broadcasting. Further, the control device 30 may control the transmission output based on selection of a button related to the broadcast by a user operation. For example, when the standard output is 100 mW and the range reached by 100 mW is 100 m, the user may be able to expand the broadcast range to, for example, 200 m by controlling the output as high as 120 mW by operating a button. Thereby, the user can include an imaging device installed far away in the broadcast range. On the other hand, when it is desired to broadcast in the range of an imaging device installed nearby, it is possible to broadcast to a narrow range such as 50 m by controlling the output as low as 50 mW.

また、上述の送信出力制御手段は、飛来物40の三次元座標位置が複数回特定された後に特定できる飛来物40の移動方向に基づいて制御を行ってもよい。この場合、制御装置30は移動方向判定手段をさらに設けてもよい。図10を例にすると、探知装置10が設置されるP1及びP2からの探知情報に基づいて特定した飛来物40の複数の三次元座標位置の時系列関係から算出した飛来物40の移動方向が、制御装置30を設置するP3に対して遠ざかる方向に移動していると移動方向判定手段が判定した場合には、送信出力制御手段は遠方に設置される撮像装置を含む範囲でブロードキャストするように高い出力で送信制御を行う。一方で、飛来物40の移動方向がP3に対して近づく方向に移動していると判定した場合には、送信出力制御手段は、基準の出力、或いは低い出力で送信出力を制御する。   Further, the transmission output control means described above may perform control based on the moving direction of the flying object 40 that can be specified after the three-dimensional coordinate position of the flying object 40 is specified a plurality of times. In this case, the control device 30 may further include a moving direction determination unit. Taking FIG. 10 as an example, the moving direction of the flying object 40 calculated from the time-series relationship of a plurality of three-dimensional coordinate positions of the flying object 40 identified based on the detection information from P1 and P2 where the detection device 10 is installed. When the movement direction determination means determines that the movement is in a direction away from P3 where the control device 30 is installed, the transmission output control means broadcasts in a range including an imaging device installed at a distance. Control transmission at high output. On the other hand, when it is determined that the moving direction of the flying object 40 is moving in the direction approaching P3, the transmission output control means controls the transmission output with a reference output or a low output.

また、送信出力制御手段は、飛来物40の三次元座標位置に基づいて送信出力を制御してもよい。送信出力制御手段は、例えば、探知時の飛来物40の三次元座標位置が制御装置30を設置するP3に対して遠方にあると判断した場合、遠方に設置される撮像装置を含む広い範囲にブロードキャストするように高い出力で送信制御し、飛来物40の三次元座標位置がP3に対して近傍にあると判断した場合には基準の出力、或いは低い出力で送信出力を制御してもよい。なお、上述の送信出力制御において、制御の基準情報となるP3に対する方向や距離、及びブロードキャストの範囲と送信出力の関係は制御装置30に記憶されてもよい。また、ブロードキャストされる情報を受信する撮像装置は特定の周波数でのみ受信する特定周波数受信手段を設けてもよい。この場合、制御装置30は周波数変更制御手段をさらに備え、周波数変更制御手段により周波数を変えることにより、特定の撮像装置や予め特定の周波数情報でグループ化した撮像装置群に対して制御情報をブロードキャストすることができる。   Further, the transmission output control means may control the transmission output based on the three-dimensional coordinate position of the flying object 40. For example, when the transmission output control means determines that the three-dimensional coordinate position of the flying object 40 at the time of detection is far from P3 where the control device 30 is installed, the transmission output control means has a wide range including an imaging device installed far away. Transmission control may be performed with a high output so as to broadcast, and when it is determined that the three-dimensional coordinate position of the flying object 40 is close to P3, the transmission output may be controlled with a reference output or a low output. In the transmission output control described above, the control device 30 may store the direction and distance with respect to P3 serving as control reference information, and the relationship between the broadcast range and the transmission output. In addition, an imaging apparatus that receives broadcast information may be provided with specific frequency receiving means for receiving only at a specific frequency. In this case, the control device 30 further includes frequency change control means, and broadcasts control information to a specific image pickup device or an image pickup device group previously grouped with specific frequency information by changing the frequency by the frequency change control means. can do.

さらに、制御装置30及び撮像装置は、それぞれ暗号化手段及び復号手段を備えてもよい。暗号化手段と復号手段をそれぞれに備えることで、制御装置30と撮像装置の間でセキュアな通信を確立することができる。具体的には、制御装置30は特定した飛来物40の三次元座標位置の情報を暗号化手段によって暗号化してブロードキャストし、復号手段を持つ撮像装置は暗号化された上記の情報を受信し、復号手段によって復号することで飛来物40の三次元座標位置の情報を取得することができる。   Furthermore, the control device 30 and the imaging device may each include an encryption unit and a decryption unit. By providing each of the encryption unit and the decryption unit, secure communication can be established between the control device 30 and the imaging device. Specifically, the control device 30 encrypts and broadcasts the information of the specified three-dimensional coordinate position of the flying object 40 by the encryption means, and the imaging device having the decryption means receives the encrypted information, By decoding by the decoding means, information on the three-dimensional coordinate position of the flying object 40 can be acquired.

さらに、制御装置30は、共通鍵を撮像装置に予め送信する共通鍵送信手段をさらに備えてもよい。共通鍵を利用することで、さらにセキュアな通信を制御装置30と撮像装置の間で実現することができる。制御装置30は特定した飛来物40の三次元座標位置をブロードキャストする前に、共通鍵送信手段により撮像装置に共通鍵を送信しておく。制御装置30は飛来物40の三次元座標位置の情報を暗号化手段によって暗号化してブロードキャスト送信し、復号手段を持つ撮像装置は暗号三次元座標位置情報を受信し、復号手段と共通鍵で復号することで飛来物40の三次元座標位置の情報を取得することができる。これにより、復号手段及び共通鍵を持つ撮像装置のみに撮像を行わせることができる。さらに、制御装置30は複数の異なる共通鍵を管理する共通鍵管理テーブルと、共通鍵選択手段を備えてもよい。例えば、制御装置30は共通鍵A及び共通鍵Bを管理し、共通鍵選択手段により図10のP4に設置される撮像装置には共通鍵Aを、P5に設置される撮像装置には共通鍵A及び共通鍵Bを選択し、上述の共通鍵送信手段により送信することができる。この際、制御装置30が共通鍵Bで飛来物40の三次元座標位置の情報を暗号化してブロードキャスト送信した場合には、共通鍵Bを予め受信しているP5に設置される撮像装置のみが飛来物40の三次元座標位置の情報を取得することができる。また、制御装置30が共通鍵Aで飛来物40の三次元座標位置の情報を暗号化してブロードキャスト送信した場合には、共通鍵Aを予め受信しているP4及びP5に設置される撮像装置が飛来物40の三次元座標位置の情報を取得することができる。これにより、制御装置30は復号手段、特定の共通鍵を持つ撮像装置のみに撮像を行わせることができる。   Furthermore, the control device 30 may further include a common key transmission unit that transmits the common key to the imaging device in advance. By using the common key, more secure communication can be realized between the control device 30 and the imaging device. Before broadcasting the specified three-dimensional coordinate position of the flying object 40, the control device 30 transmits the common key to the imaging device by the common key transmission means. The control device 30 encrypts the information of the three-dimensional coordinate position of the flying object 40 by the encryption means and broadcasts it, and the imaging device having the decryption means receives the encrypted three-dimensional coordinate position information and decrypts it with the decryption means and the common key. By doing so, the information of the three-dimensional coordinate position of the flying object 40 can be acquired. As a result, only the imaging device having the decryption means and the common key can perform imaging. Further, the control device 30 may include a common key management table for managing a plurality of different common keys and a common key selection unit. For example, the control device 30 manages the common key A and the common key B, and the common key A is used for the imaging device installed at P4 in FIG. 10 by the common key selection unit, and the common key is used for the imaging device installed at P5. A and the common key B can be selected and transmitted by the above-described common key transmission means. At this time, when the control device 30 encrypts the information of the three-dimensional coordinate position of the flying object 40 with the common key B and broadcasts it, only the imaging device installed in P5 that has received the common key B in advance. Information on the three-dimensional coordinate position of the flying object 40 can be acquired. Further, when the control device 30 encrypts the information of the three-dimensional coordinate position of the flying object 40 with the common key A and broadcasts it, the imaging devices installed in P4 and P5 that have received the common key A in advance. Information on the three-dimensional coordinate position of the flying object 40 can be acquired. As a result, the control device 30 can cause only the image capturing device having the decryption means and the specific common key to perform image capturing.

<5.第4の実施形態>
続いて、本発明に係る第4の実施形態について説明する。第1の実施形態、第2の実施形態及び第3の実施形態は、探知画面を介して情報を提供するものであった。本発明に係わる第4の実施形態では、探知画面を介しての情報提供とは別にユーザに対する通知をすることが可能である。具体的には、本発明に係る第4の実施形態は、位置特定部320が飛来物40を特定すると電話発信を制御して通知する。したがって、第4の実施形態の制御装置30は、第1の実施形態、第2の実施形態及び第3の実施形態の制御装置30と違って、ユーザの電話端末に対し電話発信を制御する通知手段を有する。
<5. Fourth Embodiment>
Subsequently, a fourth embodiment according to the present invention will be described. In the first embodiment, the second embodiment, and the third embodiment, information is provided via a detection screen. In the fourth embodiment according to the present invention, it is possible to notify the user separately from the provision of information via the detection screen. Specifically, in the fourth embodiment according to the present invention, when the position specifying unit 320 specifies the flying object 40, the outgoing call is controlled and notified. Therefore, unlike the control device 30 of the first embodiment, the second embodiment, and the third embodiment, the control device 30 of the fourth embodiment is a notification for controlling the telephone call to the user's telephone terminal. Have means.

通知手段は、制御装置30による飛来物40の探知(S1106:Yes)、制御装置30による探知画面の提供(S1108(S1108及びS1109))又はユーザ操作に応じて電話発信を制御する。ユーザ操作に応じた電話発信の制御とは、飛来物40が探知されたことを示すメッセージ(図5のM1)を選択する操作や通知のボタン(図4の領域R5に図示されないボタン)を選択する操作がされると通知手段が電話発信を制御するものである。ここで、図5において飛来物40が探知されたことを示すメッセージM1が例示されているが、第4の実施形態においては、例えば、「探知!」に加えて「警備員に通知します。この表示を押下して下さい。」とメッセージ表示するようにしてもよい。また、図4において領域R5のボタンが例示されているが、第4の実施形態においては、例えば、飛来物40が探知されたことを示すメッセージM1の表示に伴って通知のボタンが表示されるようにしてもよい。   The notification means controls the outgoing call 40 by the control device 30 (S1106: Yes), the provision of the detection screen by the control device 30 (S1108 (S1108 and S1109)), or the telephone call according to the user operation. The control of outgoing calls in response to user operations is to select a message (M1 in FIG. 5) indicating that the flying object 40 has been detected and a notification button (button not shown in region R5 in FIG. 4). When the operation is performed, the notification means controls the outgoing call. Here, the message M1 indicating that the flying object 40 has been detected is illustrated in FIG. 5, but in the fourth embodiment, for example, in addition to “Detect!”, The guard is notified. You may make it display a message "Please press this display." In FIG. 4, the button of the region R5 is illustrated, but in the fourth embodiment, for example, a notification button is displayed along with the display of the message M1 indicating that the flying object 40 has been detected. You may do it.

通知手段は、第1通知処理、第2通知処理及び第3通知処理のいずれかの通知処理を実施しユーザの電話端末に対し電話発信を制御できる。   The notifying means can perform any one of the first notification process, the second notification process, and the third notification process to control outgoing calls to the user's telephone terminal.

[5.1.第1通知処理]
第1通知処理は、通知手段が電話発信を行って音声ガイダンスを与えるものである。第1通知処理を実施する場合、通知手段は、発信先となる電話端末の電話番号情報、音声ガイダンス情報(例えば音声「探知しました」等)、電話番号情報に基づき電話網とやりとりして発信先の電話端末との間で通話パスを形成(通話確立)する通話確立手段及び確立した通話パスに音声ガイダンスを再生する音声ガイダンス手段を含む。ここで、第1通知処理による電話発信は、内線発信であっても外線発信であっても携帯電話発信であってもよい。
[5.1. First notification process]
In the first notification process, the notification means makes a telephone call and gives voice guidance. When performing the first notification process, the notification means communicates with the telephone network based on the telephone number information, voice guidance information (for example, voice “detected”) of the telephone terminal that is the destination, and telephone number information. It includes a call establishment means for forming a call path (establishing a call) with a previous telephone terminal and a voice guidance means for reproducing voice guidance on the established call path. Here, the telephone call by the first notification process may be an internal line call, an external line call, or a mobile phone call.

第1通知処理で内線発信する場合、通知手段は、発信先となる内線電話端末の内線電話番号情報、音声ガイダンス情報、内線電話網とやりとりして発信先の内線電話端末との間で内線通話を確立する内線通話確立手段及び確立した内線通話に音声ガイダンスを再生する音声ガイダンス手段を含む。   When making an extension call in the first notification process, the notification means communicates with the extension telephone number information, voice guidance information, and extension telephone network of the extension telephone terminal that is the destination, and performs an extension call with the extension telephone terminal of the destination And a voice guidance means for reproducing voice guidance for the established extension call.

第1通知処理で外線発信する場合、通知手段は、発信先となる外線電話端末の外線電話番号情報(例えば「外線発信特番+外線電話番号」や「外線電話端末に付与されたFMC(Fixed Mobile Convergence)用の内線電話番号」等)、音声ガイダンス情報、内線電話網とやりとりして発信先の外線電話端末との間で内線電話網を介する外線通話を確立する外線通話確立手段及び確立した外線通話に音声ガイダンスを再生する音声ガイダンス手段を含む。   When making an outside line call in the first notification process, the notifying means sends the outside line telephone number information (for example, “outside line calling special number + outside line telephone number” or “FMC (Fixed Mobile) assigned to the outside line telephone terminal”. Extension telephone number for Convergence ", etc.), voice guidance information, external line establishment means for establishing an external line call via the internal telephone network with the external telephone terminal of the destination by communicating with the internal telephone network and the established external line Voice guidance means for reproducing voice guidance for a call is included.

第1通知処理で携帯電話発信する場合、通知手段は、発信先となる携帯電話端末の携帯電話番号情報、音声ガイダンス情報、携帯電話事業者網とやりとりして発信先の携帯電話端末との間で携帯電話通話を確立する携帯電話通話確立手段及び確立した携帯電話通話に音声ガイダンスを再生する音声ガイダンス手段を含む。   When making a mobile phone call in the first notification process, the notification means communicates with the mobile phone terminal of the call destination by exchanging with the mobile phone number information, voice guidance information, and the mobile phone carrier network of the call destination mobile phone terminal. Mobile phone call establishment means for establishing a mobile phone call and voice guidance means for reproducing voice guidance for the established mobile phone call.

[5.2.第2通知処理]
第2通知処理は、通知手段が電話発信を行って2者の間の通話を確立させるものである。ここで、2者とは、例えば、制御装置30のユーザ以外のユーザA(例えば屋内の警備室)及びユーザB(例えば屋外の警備員)である。なお、制御装置30のユーザであるユーザAと制御装置30のユーザ以外のユーザBであってもよい。第2通知処理を実施する場合、通知手段は、第1発信先となるユーザAの電話端末の第1電話番号情報、第2発信先となるユーザBの電話端末の第2電話番号情報及び第1電話番号情報に基づき電話網とやりとりし第1発信先の電話端末に着信させユーザAの操作に応じて通話を保留させると共に第2電話番号情報に基づき電話網とやりとりし第2発信先の電話端末に着信させユーザBの操作に応じて保留中の第1発信先の電話端末との間で通話パスを形成(通話確立)させる通話確立手段を含む。
[5.2. Second notification process]
In the second notification process, the notification means makes a telephone call to establish a call between the two parties. Here, the two are, for example, a user A other than the user of the control device 30 (for example, an indoor security room) and a user B (for example, an outdoor security guard). Note that the user A who is the user of the control device 30 and the user B other than the user of the control device 30 may be used. When performing the second notification process, the notification means includes the first telephone number information of the user A's telephone terminal as the first destination, the second telephone number information of the user B's telephone terminal as the second destination, and the first The first telephone number information is exchanged with the telephone network, the first destination telephone terminal is received, the call is put on hold according to the operation of the user A, and the second telephone number information is exchanged with the telephone network. Call establishment means for causing a telephone terminal to receive a call and forming a call path (call establishment) with the first destination telephone terminal being held in response to an operation of user B is included.

[5.3.第3通知処理]
第3通知処理は、通知手段が電話発信を行って通話できるものである。第3通知処理を実施する場合、制御装置30がマイクロフォンとスピーカとを備え、通知手段は、発信先となる電話端末の電話番号情報、電話番号情報に基づき電話網とやりとりして発信先の電話端末との間で通話パスを形成(通話確立)する通話確立手段及び通話パス及び制御装置30のマイクロフォンから入力される音声を通話パスに与え通話パスから得る音声を制御装置30のスピーカに与える通話機能手段を含む。
[5.3. Third notification process]
In the third notification process, the notification means can make a call by making a telephone call. When performing the third notification process, the control device 30 includes a microphone and a speaker, and the notification means communicates with the telephone network based on the telephone number information of the telephone terminal that is the destination and the telephone number information, and the destination telephone. Call establishment means for forming a call path (establishing a call) with a terminal, and a call for giving voice input from the call path and the microphone of the control device 30 to the call path and giving voice obtained from the call path to the speaker of the control device 30 Includes functional means.

[5.4.その他の態様]
本発明に係わる第4の実施形態は、電話発信を制御して通知するものとして説明した。本発明が適用されたシステムの運用形態にあわせ、通知手段をその他の態様としてもよい。例えば、その他の態様としてSMS(Short Message Service)、電子メール等による通知が適用し得る。
[5.4. Other aspects]
The fourth embodiment according to the present invention has been described as controlling and notifying a telephone call. In accordance with the operation mode of the system to which the present invention is applied, the notification unit may have other modes. For example, SMS (Short Message Service), e-mail notification, or the like can be applied as other modes.

通知手段がSMSによる通知を行う場合、通知手段は、SMS送信先となる電話端末の電話番号情報、メッセージ情報(例えば文字「探知しました」等)及び電話番号情報に基づき電話網とやりとりしてSMS送信をするSMS送信手段を含む。   When the notification means performs notification by SMS, the notification means communicates with the telephone network based on the telephone number information, message information (for example, “detected”) of the telephone terminal that is the SMS transmission destination, and telephone number information. SMS transmission means for performing SMS transmission is included.

通知手段が電子メールによる通知を行う場合、通知手段は、電子メール送信先となる電子メールアドレス情報、メッセージ情報(例えば文字「探知しました」等)及び電子メールアドレス情報に基づき電話網とやりとりして電子メール送信をする電子メール送信手段を含む。   When the notification means performs notification by e-mail, the notification means communicates with the telephone network based on e-mail address information, message information (for example, “detected”, etc.) and e-mail address information as the e-mail transmission destination. E-mail sending means for sending e-mail.

<6.ハードウェア構成例>
次に、本発明に係る探知装置10と制御装置30に共通するハードウェア構成例について説明する。図11は、本発明に係る探知装置10と制御装置30のハードウェア構成例を示すブロック図である。図11を参照すると、探知装置10と制御装置30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
<6. Hardware configuration example>
Next, a hardware configuration example common to the detection device 10 and the control device 30 according to the present invention will be described. FIG. 11 is a block diagram illustrating a hardware configuration example of the detection device 10 and the control device 30 according to the present invention. Referring to FIG. 11, the detection device 10 and the control device 30 include, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input unit 878, and an output. A unit 879, a storage unit 880, a drive 881, a connection port 882, and a communication unit 883. Note that the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.

(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU 871)
The CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls all or part of the operation of each component based on various programs recorded in the ROM 872, RAM 873, storage unit 880, or removable recording medium 901. .

(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM 872, RAM 873)
The ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like. In the RAM 873, for example, a program read by the CPU 871, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, bridge 875, external bus 876, interface 877)
The CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example. The external bus 876 is connected to various components via an interface 877.

(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(Input unit 878)
For the input unit 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a microphone, a lever, and the like are used. Furthermore, as the input unit 878, a remote controller (hereinafter referred to as a remote controller) that can transmit a control signal using infrared rays or other radio waves may be used.

(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(Output unit 879)
The output unit 879 includes acquired information such as a display device (display device) such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. Is a device capable of visually or audibly notifying a user.

(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage unit 880)
The storage unit 880 is a device for storing various data. As the storage unit 880, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable recording medium 901)
The removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media. Of course, the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(External connection device 902)
The external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.

(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
(Communication unit 883)
The communication unit 883 is a communication device for connecting to the network 903. For example, a communication card for wired or wireless LAN, Bluetooth (registered trademark), or WUSB (Wireless USB), a router for optical communication, ADSL (Asymmetric) A digital subscriber line) or a modem for various types of communication. Moreover, you may connect to telephone networks, such as an extension telephone network and a mobile telephone provider network.

<7.まとめ>
以上説明したように、本発明に係る制御装置30は、複数の探知装置10から取得した飛来物40の探知情報に基づいて、飛来物40の三次元座標位置を特定することができる。また、本実施形態に係る制御装置30は、特定した飛来物40の三次元座標位置に基づいて、探知装置10の撮像部120を制御し、飛来物40を撮像させることができる。係る構成によれば、位置特定した対象物の挙動をより詳細にユーザに提示することが可能となる。
<7. Summary>
As described above, the control device 30 according to the present invention can specify the three-dimensional coordinate position of the flying object 40 based on the detection information of the flying object 40 acquired from the plurality of detection devices 10. Moreover, the control apparatus 30 which concerns on this embodiment can control the imaging part 120 of the detection apparatus 10 based on the identified three-dimensional coordinate position of the flying object 40, and can make the flying object 40 imaged. According to such a configuration, it is possible to present the behavior of the position-specified target object to the user in more detail.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 探知装置
110 センサ部
120 撮像部
130 処理通信部
20 ネットワーク
30 制御装置
310 通信部
320 位置特定部
330 撮像制御部
340 表示制御部
DESCRIPTION OF SYMBOLS 10 Detection apparatus 110 Sensor part 120 Imaging part 130 Processing communication part 20 Network 30 Control apparatus 310 Communication part 320 Position specification part 330 Imaging control part 340 Display control part

Claims (10)

動的対象物の画像を取得する制御装置であって、
取得した複数の探知地点における前記動的対象物の探知情報に基づいて、前記動的対象物の三次元座標位置を特定する位置特定部と、
前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の撮像装置に前記動的対象物を撮像させる撮像制御部と、
を備え、
前記探知情報は、前記探知地点を起点とした前記動的対象物の方位及び俯仰角を含む、
制御装置。
A control device for acquiring an image of a dynamic object,
A position specifying unit for specifying a three-dimensional coordinate position of the dynamic object, based on detection information of the dynamic object at a plurality of acquired detection points;
An imaging control unit that causes at least one imaging device to image the dynamic object based on the three-dimensional coordinate position of the dynamic object;
With
The detection information includes an azimuth and elevation angle of the dynamic object starting from the detection point,
Control device.
前記探知情報は、音響センサにより取得される情報である、
請求項1に記載の制御装置。
The detection information is information acquired by an acoustic sensor.
The control device according to claim 1.
前記位置特定部は、前記複数の探知地点おける前記探知情報に基づいて、前記探知地点を起点とした前記動的対象物の方位の交点を算出し、前記動的対象物の前記三次元座標位置を特定する、
請求項1または2に記載の制御装置。
The position specifying unit calculates an intersection of the orientations of the dynamic object starting from the detection point based on the detection information at the plurality of detection points, and the three-dimensional coordinate position of the dynamic object Identify
The control device according to claim 1 or 2.
前記動的対象物の前記三次元座標位置を地図情報と対応付けて表示させる表示制御部、
をさらに備える、
請求項1〜3のいずれかに記載の制御装置。
A display control unit for displaying the three-dimensional coordinate position of the dynamic object in association with map information;
Further comprising
The control device according to claim 1.
前記表示制御部は、取得した前記動的対象物の画像をさらに前記地図情報と対応付けて表示させる、
請求項4に記載の制御装置。
The display control unit further displays the acquired image of the dynamic object in association with the map information.
The control device according to claim 4.
前記表示制御部は、前記動的対象物の前記三次元座標位置の変化を地図情報と対応づけて表示させる、
請求項4または5に記載の制御装置。
The display control unit displays a change in the three-dimensional coordinate position of the dynamic object in association with map information;
The control device according to claim 4 or 5.
前記撮像制御部は、前記動的対象物の前記三次元座標位置をブロードキャストし、前記ブロードキャストに係る情報を受信した撮像装置に前記動的対象物を撮像させる、
請求項1〜6のいずれかに記載の制御装置。
The imaging control unit broadcasts the three-dimensional coordinate position of the dynamic object, and causes the imaging apparatus that has received the information related to the broadcast to image the dynamic object,
The control device according to claim 1.
前記動的対象物は、飛来物である、
請求項1〜7のいずれかに記載の制御装置。
The dynamic object is a flying object,
The control device according to claim 1.
動的対象物の画像を取得する制御方法であって、
取得した複数の探知地点における前記動的対象物の探知情報に基づいて、前記動的対象物の三次元座標位置を特定することと、
前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の撮像装置に前記動的対象物を撮像させることと、
を含み、
前記探知情報は、前記探知地点を起点とした前記動的対象物の方位及び俯仰角を含む、
制御方法。
A control method for acquiring an image of a dynamic object,
Identifying a three-dimensional coordinate position of the dynamic object based on the detection information of the dynamic object at a plurality of acquired detection points;
Causing at least one imaging device to image the dynamic object based on the three-dimensional coordinate position of the dynamic object;
Including
The detection information includes an azimuth and elevation angle of the dynamic object starting from the detection point,
Control method.
動的対象物の方位及び俯仰角を探知するセンサ部、及び
撮像部、
を備える探知装置と、
複数の前記探知装置から取得した前記動的対象物の方位及び俯仰角に基づいて、前記動的対象物の三次元座標位置を特定する位置特定部、及び
前記動的対象物の前記三次元座標位置に基づいて少なくとも1つ以上の前記探知装置に前記動的対象物を撮像させる撮像制御部、
を備える制御装置と、
を含む、探知システム。
A sensor unit for detecting the azimuth and elevation angle of a dynamic object, and an imaging unit;
A detection device comprising:
A position specifying unit for specifying a three-dimensional coordinate position of the dynamic object based on an azimuth and elevation angle of the dynamic object acquired from a plurality of the detection devices; and the three-dimensional coordinates of the dynamic object An imaging control unit that causes at least one detection device to image the dynamic object based on a position;
A control device comprising:
Including detection system.
JP2016037265A 2016-02-29 2016-02-29 Control device, control method, and detection system Pending JP2017156122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016037265A JP2017156122A (en) 2016-02-29 2016-02-29 Control device, control method, and detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016037265A JP2017156122A (en) 2016-02-29 2016-02-29 Control device, control method, and detection system

Publications (1)

Publication Number Publication Date
JP2017156122A true JP2017156122A (en) 2017-09-07

Family

ID=59808406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016037265A Pending JP2017156122A (en) 2016-02-29 2016-02-29 Control device, control method, and detection system

Country Status (1)

Country Link
JP (1) JP2017156122A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198093A (en) * 2017-11-06 2019-11-14 株式会社エアロネクスト Flight unit and control method of flight unit
JP2023508611A (en) * 2019-12-31 2023-03-02 ジップライン インターナショナル インク. Aircraft Acoustic-Based Detection and Avoidance

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10227849A (en) * 1997-02-14 1998-08-25 Fuji Xerox Co Ltd Sound source position measuring device, camera image pick-up controller, sound source position recording device, and sound source position measurement method
JP2006125986A (en) * 2004-10-28 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> Wave source search method and wave source search system
JP2009216473A (en) * 2008-03-07 2009-09-24 Univ Nihon Device for measuring distance to sound source and apparatus for separating acoustic information using it
US20100135120A1 (en) * 2008-12-01 2010-06-03 Lockheed Martin Corporation Ground threat location for an aircraft
JP2010232888A (en) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd Monitor device
JP2011166608A (en) * 2010-02-12 2011-08-25 Canon Inc Sound source position specifying method
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
JP2013242728A (en) * 2012-05-21 2013-12-05 Secom Co Ltd Image monitoring device
JP2014098568A (en) * 2012-11-13 2014-05-29 Advanced Telecommunication Research Institute International Sound source position estimation device, sound source position estimation method, and sound source position estimation program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10227849A (en) * 1997-02-14 1998-08-25 Fuji Xerox Co Ltd Sound source position measuring device, camera image pick-up controller, sound source position recording device, and sound source position measurement method
JP2006125986A (en) * 2004-10-28 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> Wave source search method and wave source search system
JP2009216473A (en) * 2008-03-07 2009-09-24 Univ Nihon Device for measuring distance to sound source and apparatus for separating acoustic information using it
US20100135120A1 (en) * 2008-12-01 2010-06-03 Lockheed Martin Corporation Ground threat location for an aircraft
JP2010232888A (en) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd Monitor device
JP2011166608A (en) * 2010-02-12 2011-08-25 Canon Inc Sound source position specifying method
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
JP2013242728A (en) * 2012-05-21 2013-12-05 Secom Co Ltd Image monitoring device
JP2014098568A (en) * 2012-11-13 2014-05-29 Advanced Telecommunication Research Institute International Sound source position estimation device, sound source position estimation method, and sound source position estimation program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198093A (en) * 2017-11-06 2019-11-14 株式会社エアロネクスト Flight unit and control method of flight unit
JP2023508611A (en) * 2019-12-31 2023-03-02 ジップライン インターナショナル インク. Aircraft Acoustic-Based Detection and Avoidance
JP7406655B2 (en) 2019-12-31 2023-12-27 ジップライン インターナショナル インク. Aircraft acoustic-based detection and avoidance

Similar Documents

Publication Publication Date Title
US20220215748A1 (en) Automated camera response in a surveillance architecture
US10182280B2 (en) Sound processing apparatus, sound processing system and sound processing method
US8104672B2 (en) Security system, mobile security device, and methods of operating
KR101321444B1 (en) A cctv monitoring system
US20170089739A1 (en) Sensor grouping for a sensor based detection system
US20150248275A1 (en) Sensor Grouping for a Sensor Based Detection System
US20180103348A1 (en) Physical Security System and Method
JP6226538B2 (en) Display control apparatus, display control method, and program
JP5715775B2 (en) Image monitoring system and image monitoring method
JP2016127563A (en) Person tracking system and person tracking method
KR101657046B1 (en) Smart Bell Control Apparatus
US10225650B2 (en) Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method
KR20170000091A (en) Mobile terminal for sharing image with nearby blackbox device and method for controlling the same
US10896513B2 (en) Method and apparatus for surveillance using location-tracking imaging devices
KR101757884B1 (en) Apparatus for providing circumstance information based on battlefield situation awareness and method thereof
KR101005568B1 (en) Intelligent security system
CN107205219A (en) Method and apparatus for positioning
KR101993096B1 (en) Data management apparatus of digital video recorder
JP2017156122A (en) Control device, control method, and detection system
US11514600B2 (en) Information processing device and information processing method
KR101250956B1 (en) An automatic system for monitoring
US11196968B1 (en) System for generating drone video feed overlays based on property monitoring system data
KR101914386B1 (en) Mobile terminal for construction supervision
US20110298930A1 (en) Integrated Wireless Location and Surveillance System
JP2017181417A (en) Information processing device, method, and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181115

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027