JP2016118996A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2016118996A
JP2016118996A JP2014259399A JP2014259399A JP2016118996A JP 2016118996 A JP2016118996 A JP 2016118996A JP 2014259399 A JP2014259399 A JP 2014259399A JP 2014259399 A JP2014259399 A JP 2014259399A JP 2016118996 A JP2016118996 A JP 2016118996A
Authority
JP
Japan
Prior art keywords
unit
target
monitoring
control
flying device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014259399A
Other languages
Japanese (ja)
Other versions
JP6482857B2 (en
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014259399A priority Critical patent/JP6482857B2/en
Publication of JP2016118996A publication Critical patent/JP2016118996A/en
Application granted granted Critical
Publication of JP6482857B2 publication Critical patent/JP6482857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To control a flight device to move it to a position suitable for taking countermeasures for a monitored target.SOLUTION: A monitoring system 1 comprises at least a flight device 3 for monitoring the ground from the sky and a sensor device 4. The sensor device 4 includes: a storage unit 43 storing an elevation angle for a monitored target for each control type; a target calculating unit 46c calculating a target position equivalent to an elevation angle corresponding to the control type in reference to the storage unit 43 when control signals including the control type are input; and a flight device controlling unit 46d for moving the flight device 3 to the target position.SELECTED DRAWING: Figure 1

Description

本発明は、例えば上空から監視対象を監視する監視システムに関する。   The present invention relates to a monitoring system for monitoring a monitoring target from above, for example.

飛行装置を用いて上空から監視するシステムとしては、例えば下記特許文献1に開示される無人ヘリコプターを利用した防災情報収集・配信システムの発明が知られている。この発明によれば、無人ヘリコプター2にカメラ装置1を搭載するとともに、LAN制御部および無線LANインタフェースを備えることにより、無線LAN3に対するインタフェース機能を実現し、このインタフェース機能によって地上局4と無線LAN3を構築し、被災地Lにおける映像情報、音声情報などの情報を送受信することができる。このように機動力と利便性を有する自律飛行型無人ヘリにより、気象条件の変化や昼夜を問わずに被災地の情報を収集し、危険で人が踏み込めない被災地に関する観測位置、方位、時系列情報を他の地域に配信することができる。   As a system for monitoring from above using a flying device, for example, an invention of a disaster prevention information collection / distribution system using an unmanned helicopter disclosed in Patent Document 1 below is known. According to the present invention, the camera device 1 is mounted on the unmanned helicopter 2, and the LAN control unit and the wireless LAN interface are provided to realize an interface function for the wireless LAN 3. With this interface function, the ground station 4 and the wireless LAN 3 are connected. It is possible to construct and transmit / receive information such as video information and audio information in the affected area L. In this way, the autonomous flight type unmanned helicopter with mobility and convenience collects information on the affected area regardless of changes in weather conditions and day and night, and the observation position, direction, Series information can be distributed to other regions.

特開2007−112315号公報JP 2007-112315 A

上述した特許文献1のシステムは、広範囲で発生する被災地を監視対象として想定しているので、上空から俯瞰した位置にて情報を収集することが好ましいが、その他の事象を監視対象とする場合は、必ずしも俯瞰した位置を飛行装置が飛行することが適切であるとは限らない。このため、監視対象に応じて対処を行うのに適した位置まで飛行装置を移動させることができる監視システムの提供が望まれる。   Since the system of Patent Document 1 described above assumes a disaster area that occurs in a wide range as a monitoring target, it is preferable to collect information at a position viewed from above, but other events are to be monitored However, it is not always appropriate for the flying device to fly at a bird's-eye view. For this reason, it is desired to provide a monitoring system that can move the flying device to a position suitable for taking measures according to the monitoring target.

そこで、本発明は上記問題点に鑑みてなされたものであり、監視対象に対して対処を行うのに適した位置まで飛行装置を移動させることができる監視システムを提供することを目的とするものである。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a monitoring system capable of moving a flying device to a position suitable for dealing with a monitoring target. It is.

上記した目的を達成するために、本発明に係る監視システムは、上空から地上を監視する飛行装置を少なくとも備えた監視システムであって、
制御種別ごとに監視対象に対する俯仰角を記憶する記憶部と、
前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する俯仰角に相当する目標位置を算出する目標算出部と、
前記目標位置に前記飛行装置を移動させる飛行装置制御部と、
を備えたことを特徴とする。
In order to achieve the above object, a monitoring system according to the present invention is a monitoring system including at least a flying device that monitors the ground from the sky,
A storage unit for storing the elevation angle with respect to the monitoring target for each control type;
When there is an input of a control signal including the control type, a target calculation unit that calculates a target position corresponding to the elevation angle corresponding to the control type with reference to the storage unit;
A flying device controller that moves the flying device to the target position;
It is provided with.

また、本発明に係る監視システムは、前記記憶部が、前記制御種別ごとに前記監視対象との距離を記憶し、
前記目標算出部は、前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する距離に相当する目標位置を算出してもよい。
In the monitoring system according to the present invention, the storage unit stores a distance from the monitoring target for each control type,
The target calculation unit may calculate a target position corresponding to a distance corresponding to the control type with reference to the storage unit when a control signal including the control type is input.

さらに、本発明に係る監視システムは、前記記憶部が、前記制御種別ごとに前記監視対象に対する方向を記憶し、
前記目標算出部は、前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する方向に相当する目標位置を算出してもよい。
Furthermore, in the monitoring system according to the present invention, the storage unit stores a direction with respect to the monitoring target for each control type,
When the control signal including the control type is input, the target calculation unit may calculate a target position corresponding to the direction corresponding to the control type with reference to the storage unit.

本発明の監視システムによれば、制御種別ごとに監視対象に対する俯仰角を記憶部に記憶しておく。目標算出部は、制御種別を含む制御信号の入力があると、記憶部を参照して制御種別に対応する俯仰角に相当する目標位置を算出する。そして、飛行装置制御部は、目標位置に飛行装置を移動させる。かかる構成によれば、飛行装置は、制御種別に応じた俯仰角に相当する目標位置に移動するように作用する。これにより、飛行装置は監視対象に対して対処を行うのに適した俯仰角に相当する位置に移動できる。   According to the monitoring system of the present invention, the elevation angle with respect to the monitoring target is stored in the storage unit for each control type. When the control signal including the control type is input, the target calculation unit calculates a target position corresponding to the elevation angle corresponding to the control type with reference to the storage unit. Then, the flying device control unit moves the flying device to the target position. According to this configuration, the flying device acts to move to a target position corresponding to the elevation angle corresponding to the control type. Thereby, the flying device can move to a position corresponding to the elevation angle suitable for dealing with the monitored object.

また、本発明のシステムによれば、制御種別ごとに監視対象との距離を記憶部に記憶しておく。目標算出部は、制御種別を含む制御信号の入力があると、記憶部を参照して制御種別に対応する距離に相当する目標位置を算出する。そして、飛行装置制御部は、目標位置に飛行装置を移動させる。かかる構成によれば、飛行装置は、制御種別に応じた距離に相当する目標位置に移動するように作用する。これにより、飛行装置は監視対象に対して対処を行うのに適した距離に相当する位置に移動できる。   Further, according to the system of the present invention, the distance from the monitoring target is stored in the storage unit for each control type. When the control signal including the control type is input, the target calculation unit calculates a target position corresponding to the distance corresponding to the control type with reference to the storage unit. Then, the flying device control unit moves the flying device to the target position. According to this configuration, the flying device acts to move to a target position corresponding to a distance corresponding to the control type. Accordingly, the flying device can move to a position corresponding to a distance suitable for dealing with the monitoring target.

さらに、本発明の監視システムによれば、制御種別ごとに監視対象に対する方向を記憶部に記憶しておく。目標算出部は、制御種別を含む制御信号の入力があると、記憶部を参照して制御種別に対応する方向に相当する目標位置を算出する。そして、飛行装置制御部は、目標位置に飛行装置を移動させる。かかる構成によれば、飛行装置は、制御種別に応じた方向に相当する目標位置に移動するように作用する。これにより、飛行装置は監視対象に対して対処を行うのに適した方向に相当する位置に移動できる。   Furthermore, according to the monitoring system of the present invention, the direction to the monitoring target is stored in the storage unit for each control type. When the control signal including the control type is input, the target calculation unit refers to the storage unit and calculates a target position corresponding to the direction corresponding to the control type. Then, the flying device control unit moves the flying device to the target position. According to this configuration, the flying device acts so as to move to the target position corresponding to the direction according to the control type. Thus, the flying device can move to a position corresponding to a direction suitable for dealing with the monitoring target.

本発明に係る監視システムの全体構成を示す概略ブロック図である。It is a schematic block diagram which shows the whole structure of the monitoring system which concerns on this invention. 制御種別ごとの監視対象に対する俯角、距離、方向の関係を示すテーブルデータの一例を示す図である。It is a figure which shows an example of the table data which show the relationship of the depression angle, distance, and direction with respect to the monitoring object for every control classification. 地上の水平面を仮想水平面とし、仮想水平面を側面から見たときの注目物体と監視カメラと飛行装置との位置関係を示す図である。It is a figure which shows the positional relationship of an attention object, a surveillance camera, and a flight apparatus when the horizontal surface on the ground is made into a virtual horizontal surface and the virtual horizontal surface is seen from the side. 上空から地上を鉛直方向に見たときの仮想平面上における監視対象と監視カメラと飛行装置との位置関係を示す図である。It is a figure which shows the positional relationship of the monitoring target, the monitoring camera, and the flying device on the virtual plane when the ground is viewed from above in the vertical direction.

以下、本発明を実施するための形態について、添付した図面の図1〜4を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to FIGS. 1 to 4 of the accompanying drawings.

図1に示すように、本発明に係る監視システム1は、監視カメラ2、飛行装置3、追跡処理装置としてのセンタ装置4を備えて構築される。   As shown in FIG. 1, a monitoring system 1 according to the present invention is constructed by including a monitoring camera 2, a flying device 3, and a center device 4 as a tracking processing device.

(監視カメラの構成について)
監視カメラ2は、地上から所定の撮影範囲を撮影する。監視カメラ2は、図1に示すように、カメラ部21、制御部22、通信部23を備えている。
(About surveillance camera configuration)
The surveillance camera 2 captures a predetermined imaging range from the ground. As shown in FIG. 1, the monitoring camera 2 includes a camera unit 21, a control unit 22, and a communication unit 23.

カメラ部21は、所定の撮影範囲を撮影する本体をなし、撮像部21a、方向制御部21b、画像データ生成部21cを有している。   The camera unit 21 forms a main body that captures a predetermined shooting range, and includes an imaging unit 21a, a direction control unit 21b, and an image data generation unit 21c.

撮像部21aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成される。撮像部21aは、監視領域内の所定の撮影範囲を所定時間おきに撮像し、撮像した画像を画像データ生成部21cに順次出力している。   The imaging unit 21a includes an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 21a captures a predetermined imaging range in the monitoring area at predetermined time intervals, and sequentially outputs the captured images to the image data generation unit 21c.

尚、撮像部21aは、監視カメラ2がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部21cに出力される。   Note that when the monitoring camera 2 is configured as a pan / tilt zoom camera, the imaging unit 21a has a zoom position controlled by the control of the control unit 22 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 21c.

方向制御部21bは、監視カメラ2がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、水平方向及び垂直方向の角度が制御される。この水平方向の角度情報、及び俯角又は仰角(俯仰角)としての垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向(水平方向の角度情報及び俯仰角)からの変位角度であり、画像データ生成部21cに出力される。   The direction control unit 21b is necessary when the monitoring camera 2 is configured as a pan / tilt / zoom camera. The direction control unit 21b is controlled in the horizontal direction and the vertical direction under the control of the control unit 22 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the angle information in the vertical direction as the depression angle or the elevation angle (elevation angle) are a displacement angle from a preset shooting direction (horizontal angle information and elevation angle) of the monitoring camera 2. And output to the image data generation unit 21c.

画像データ生成部21cは、撮像部21aが撮像した画像に対し、必要に応じて焦点距離や撮影方向を付加した画像データを生成する。また、後述の測位部34にて取得した撮影時における位置情報を必要に応じて付加した画像データを生成する。なお、監視カメラ2がパンチルトズームカメラとして構成される場合には、予め設定された監視カメラ2の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。   The image data generation unit 21c generates image data in which a focal length and a shooting direction are added to the image captured by the imaging unit 21a as necessary. Further, image data to which position information at the time of photographing acquired by the positioning unit 34 described later is added as necessary is generated. When the monitoring camera 2 is configured as a pan / tilt / zoom camera, a shooting direction obtained by correcting the previously set shooting direction of the monitoring camera 2 with the above-described displacement angle is added to the image data.

制御部22は、カメラ部21の画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきに通信部23を介してセンタ装置4に送信制御する。また、制御部22は、センタ装置4からの制御信号を通信部23を介して受信したときに、この制御信号の撮影指示に従ってカメラ部21の撮像部21aや方向制御部21bを制御する。   The control unit 22 controls transmission of the image data generated by the image data generation unit 21c of the camera unit 21 to the center device 4 via the communication unit 23 at predetermined frame intervals at predetermined intervals. When the control unit 22 receives a control signal from the center device 4 via the communication unit 23, the control unit 22 controls the imaging unit 21a and the direction control unit 21b of the camera unit 21 in accordance with a shooting instruction of the control signal.

通信部23は、有線又は無線により通信を行うための通信インタフェースであり、制御部22の制御により、通信回線を介してセンタ装置4との間で有線又は無線により通信し、データや信号の送受信を行う。具体的には、画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部21aや方向制御部21bを制御するためのセンタ装置4からの制御信号を受信する。   The communication unit 23 is a communication interface for performing wired or wireless communication. Under the control of the control unit 22, the communication unit 23 communicates with the center device 4 via the communication line by wired or wireless, and transmits and receives data and signals. I do. Specifically, the image data generated by the image data generation unit 21c is transmitted to the center device 4 at predetermined intervals with a predetermined frame period. In addition, a control signal is received from the center device 4 for controlling the imaging unit 21a and the direction control unit 21b.

尚、監視カメラ2は、監視領域の所定箇所に固定して複数設置されるものに限定されない。例えば各種車両に搭載した車載用カメラ、撮像部を有する小型移動飛行ロボットやドローンなどのように監視領域を移動できるものであってもよい。また、監視カメラ2が監視領域内を移動できる場合には、少なくとも1つの監視カメラ2が設けられた構成であってもよい。そして、監視カメラ2が監視領域を移動する場合には、撮影時における監視カメラ2の位置情報が移動に伴って変化するため、GPSからなる測位部を監視カメラ2に備え、地球上での監視カメラ2の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を画像データ生成部21cに出力する。また、監視カメラ2が監視領域を移動する場合は、撮影時における監視カメラ2の撮影方向も移動による姿勢変動によって変化するため、後述する姿勢検出部35と同様の構成を備え、画像データ生成部21cは、これにより得られた姿勢情報により撮影方向を補正する。そして、画像データ生成部21cからは、監視カメラ2の撮影時における位置情報及び撮影時における監視カメラ2の撮影方向も付加した画像データがセンタ装置4に送信される。   Note that the surveillance camera 2 is not limited to a plurality of surveillance cameras 2 fixedly installed at a predetermined location in the surveillance area. For example, an in-vehicle camera mounted on various vehicles, a small mobile flying robot having an imaging unit, a drone, or the like that can move the monitoring area may be used. Further, when the monitoring camera 2 can move within the monitoring area, a configuration in which at least one monitoring camera 2 is provided may be used. When the surveillance camera 2 moves in the surveillance area, the position information of the surveillance camera 2 at the time of shooting changes with the movement. Therefore, the surveillance camera 2 is provided with a GPS positioning unit, and is monitored on the earth. Position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the camera 2 is output to the image data generation unit 21c. Further, when the monitoring camera 2 moves in the monitoring area, the shooting direction of the monitoring camera 2 at the time of shooting also changes due to the posture change caused by the movement, and thus has the same configuration as the posture detection unit 35 described later, and an image data generation unit 21c corrects the shooting direction based on the posture information obtained thereby. Then, the image data generation unit 21c transmits to the center device 4 image data to which position information at the time of shooting by the monitoring camera 2 and a shooting direction of the monitoring camera 2 at the time of shooting are added.

(飛行装置の構成について)
飛行装置3は、センタ装置4からの制御信号の指示によって移動制御が可能な移動型飛行装置、すなわち、移動型飛行船、小型移動飛行ロボットやドローン、人工衛星などである。又は電源供給及び通信可能な状態で本体がケーブルを介して地上の係留装置と繋がれた係留型飛行装置(例えば係留型飛行船など)であってもよい。さらに、これらの組合せによって構成してもよい。
(About the configuration of the flying device)
The flying device 3 is a mobile flying device capable of moving control according to an instruction of a control signal from the center device 4, that is, a mobile airship, a small mobile flying robot, a drone, an artificial satellite, or the like. Alternatively, it may be a moored flying device (for example, a moored airship) in which the main body is connected to a ground mooring device via a cable in a state where power supply and communication are possible. Furthermore, you may comprise by these combination.

尚、飛行装置3が係留型飛行装置の場合には、監視カメラ2で撮影できない死角領域を包含するように、監視領域の規模に合わせた数だけ設けるのが好ましい。   When the flying device 3 is a moored flying device, it is preferable to provide the number corresponding to the size of the monitoring area so as to include the blind spot area that cannot be captured by the monitoring camera 2.

飛行装置3は、図1に示すように、カメラ部31、推進部32、方向舵33、測位部34、姿勢検出部35、制御部36、無線通信部37、警告部38、物資供給部39を備えている。   As shown in FIG. 1, the flying device 3 includes a camera unit 31, a propulsion unit 32, a rudder 33, a positioning unit 34, a posture detection unit 35, a control unit 36, a wireless communication unit 37, a warning unit 38, and a material supply unit 39. I have.

カメラ部31は、飛行装置3の本体に搭載され、主に、上空から監視カメラ2よりも広い撮影範囲で撮影を行っている。カメラ部31は、撮像部31a、方向制御部31b、画像データ生成部31cを有している。   The camera unit 31 is mounted on the main body of the flying device 3 and mainly performs imaging in a wider imaging range than the surveillance camera 2 from above. The camera unit 31 includes an imaging unit 31a, a direction control unit 31b, and an image data generation unit 31c.

撮像部31aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成されるものであり、所定の撮影範囲を上空から所定時間おきに撮像し、撮像した画像を画像データ生成部31cに順次出力する。   The imaging unit 31a includes, for example, an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 31a captures a predetermined imaging range from the sky every predetermined time and images the captured image. The data is sequentially output to the data generation unit 31c.

尚、撮像部31aは、カメラ部31がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部31cに出力される。   When the camera unit 31 is configured as a pan / tilt zoom camera, the zoom position of the imaging unit 31a is controlled by the control unit 36 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 31c.

方向制御部31bは、カメラ部31がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、水平方向及び垂直方向の角度が制御される。この水平方向の角度情報、及び俯角又は仰角(俯仰角)としての垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向からの変位角度であり、画像データ生成部31cに出力される。   The direction control unit 31b is necessary when the camera unit 31 is configured as a pan / tilt / zoom camera. The direction control unit 31b is controlled in the horizontal and vertical directions under the control of the control unit 36 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the angle information in the vertical direction as the depression angle or elevation angle (elevation angle) are a preset displacement angle from the shooting direction of the monitoring camera 2, and are output to the image data generation unit 31c. .

画像データ生成部31cは、撮像部31aが撮像した画像に対し、撮影時における焦点距離や撮影方向を必要に応じて付加した画像データを生成する。なお、カメラ部31がパンチルトズームカメラとして構成される場合には、予め設定されたカメラ部31の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。また、撮影方向は、飛行装置3の姿勢によっても変化するので、後述の姿勢検出部35の姿勢情報から撮影方向を補正している。また、後述の測位部34にて取得した撮影時における位置情報を必要に応じて付加した画像データを生成する。   The image data generation unit 31c generates image data in which the focal length and the shooting direction at the time of shooting are added to the image captured by the imaging unit 31a as necessary. When the camera unit 31 is configured as a pan / tilt / zoom camera, a shooting direction obtained by correcting the preset shooting direction of the camera unit 31 with the above-described displacement angle is added to the image data. Further, since the shooting direction also changes depending on the attitude of the flying device 3, the shooting direction is corrected from attitude information of the attitude detector 35 described later. Further, image data to which position information at the time of photographing acquired by the positioning unit 34 described later is added as necessary is generated.

推進部32は、エンジンの動力をプロペラに伝達して回転させることにより飛行装置3に推進力を与えるものであり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The propulsion unit 32 applies propulsive force to the flying device 3 by transmitting the engine power to the propeller and rotating it, and is controlled by the control unit 36 according to the flight instruction of the control signal from the center device 4.

方向舵33は、飛行装置3の操縦に用いる動翼であり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The rudder 33 is a moving blade used for maneuvering the flying device 3 and is controlled by the control unit 36 in accordance with a flight instruction of a control signal from the center device 4.

測位部34は、GPS(Global Positioning System )からなり、地球上での飛行装置3の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を制御部36に出力する。この位置情報は画像データ生成部31cへも出力する。   The positioning unit 34 includes a GPS (Global Positioning System), and outputs position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the flying device 3 on the earth to the control unit 36. This position information is also output to the image data generation unit 31c.

姿勢検出部35は、例えばジャイロコンパスとサーボ加速度計を備え、飛行装置3の方位角、ピッチ角、ロール角を計測して飛行装置3の姿勢を検出し、この検出により得られる姿勢情報を制御部36に出力する。この姿勢情報は画像データ生成部31cへも出力する。   The attitude detection unit 35 includes, for example, a gyrocompass and a servo accelerometer, detects the attitude of the flying device 3 by measuring the azimuth angle, pitch angle, and roll angle of the flying device 3, and controls the attitude information obtained by this detection. To the unit 36. This attitude information is also output to the image data generation unit 31c.

制御部36は、カメラ部31の画像データ生成部31cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信するように無線通信部37を制御する。   The control unit 36 controls the wireless communication unit 37 so that the image data generated by the image data generation unit 31c of the camera unit 31 is transmitted to the center device 4 at predetermined intervals at predetermined frame periods.

また、制御部36は、飛行制御部36a、カメラ制御部36b、警告制御部36c、物資供給制御部36dを有する。   The control unit 36 includes a flight control unit 36a, a camera control unit 36b, a warning control unit 36c, and a material supply control unit 36d.

飛行制御部36aは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の飛行指示に従って推進部32や方向舵33を制御する。   When the flight control unit 36a receives a control signal from the center device 4 via the wireless communication unit 37, the flight control unit 36a controls the propulsion unit 32 and the rudder 33 according to the flight instruction of the control signal.

カメラ制御部36bは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の撮影指示に従ってカメラ部31の撮像部31aや方向制御部31bを制御する。   When the control signal from the center device 4 is received via the wireless communication unit 37, the camera control unit 36b controls the imaging unit 31a and the direction control unit 31b of the camera unit 31 in accordance with the shooting instruction of the control signal.

警告制御部36cは、飛行装置3が移動目標とする目標位置において監視対象としての警告対象に警告を発するように警告部38を制御する。   The warning control unit 36c controls the warning unit 38 so as to issue a warning to a warning target as a monitoring target at a target position that the flying device 3 sets as a movement target.

物資供給制御部36dは、飛行装置3が目標位置において物資を投下して監視対象としての要救護者、被災者、避難施設などに供給するように物資供給部39を制御する。   The material supply control unit 36d controls the material supply unit 39 so that the flying device 3 drops the material at the target position and supplies the material to a rescuer, a disaster victim, an evacuation facility, or the like as a monitoring target.

無線通信部37は、制御部36の制御により、センタ装置4との間で無線通信し、データや信号の送受信を行う。具体的には、画像データ生成部31cが生成した画像データを所定フレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部31a、方向制御部31b、推進部32、方向舵33を制御するため、センタ装置4からの制御信号(撮影指示、飛行指示)を受信する。   The wireless communication unit 37 performs wireless communication with the center device 4 and transmits / receives data and signals under the control of the control unit 36. Specifically, the image data generated by the image data generation unit 31c is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period. In addition, in order to control the imaging unit 31a, the direction control unit 31b, the propulsion unit 32, and the rudder 33, a control signal (imaging instruction, flight instruction) is received from the center device 4.

警告部38は、飛行装置3が目標位置において警告対象に警告を発するもので、警告制御部36cの制御により、例えば立ち入り禁止区域に侵入している警告対象に向けて警告を促すための音声を出力するスピーカ部と、警告対象(例えば人物が警告対象であれば顔)に向けて照明をあてる照明部とを有する。   The warning unit 38 issues a warning to the warning target at the target position, and the warning control unit 36c controls the warning unit 38 to generate a sound for urging the warning toward the warning target entering the restricted area, for example. A speaker unit for output and an illumination unit that illuminates a warning target (for example, a face if a person is a warning target).

物資供給部39は、飛行装置3が目標位置において必要な物資を要救護者、被災者、避難施設などに供給する機構であり、物資供給制御部36dの制御により、例えば飲食品や救命器具などの物資を目標位置において投下して供給する。   The material supply unit 39 is a mechanism in which the flying device 3 supplies necessary materials at a target position to a rescuer, a disaster victim, an evacuation facility, and the like. Under the control of the material supply control unit 36d, for example, food and drinks, lifesaving devices, etc. Drop and supply the goods at the target position.

(センタ装置の構成について)
追跡処理装置としてのセンタ装置4は、通信部41、無線通信部42、記憶部43、操作部44、表示部45、制御部46を備えている。
(About the configuration of the center device)
The center device 4 as a tracking processing device includes a communication unit 41, a wireless communication unit 42, a storage unit 43, an operation unit 44, a display unit 45, and a control unit 46.

通信部41は、有線又は無線により通信を行うための通信インタフェースであり、制御部46の制御により、通信回線を介して複数の監視カメラ2との間で相互に通信を行う。具体的には、複数の監視カメラ2から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、制御対象となる監視カメラ2に対し、撮像部21aや方向制御部21bを制御して撮影指示するための制御信号を送信する。   The communication unit 41 is a communication interface for performing wired or wireless communication, and communicates with a plurality of monitoring cameras 2 via a communication line under the control of the control unit 46. Specifically, image data transmitted from the plurality of monitoring cameras 2 at predetermined frame intervals is received. In addition, a control signal for instructing photographing is transmitted to the monitoring camera 2 to be controlled by controlling the imaging unit 21a and the direction control unit 21b.

無線通信部42は、制御部46の制御により、飛行装置3との間で相互に無線通信を行う。具体的には、飛行装置3から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、飛行装置3の撮像部31aや方向制御部31bを制御して撮影指示するための制御信号と、飛行装置3の推進部32や方向舵33を制御して飛行指示するための制御信号を必要に応じて送信する。   The wireless communication unit 42 performs wireless communication with the flying device 3 under the control of the control unit 46. Specifically, the image data transmitted from the flying device 3 at a predetermined frame period and every predetermined time is received. Further, a control signal for instructing shooting by controlling the imaging unit 31a and the direction control unit 31b of the flying device 3, and a control signal for instructing flight by controlling the propulsion unit 32 and the rudder 33 of the flying device 3 are necessary. Send according to.

記憶部43は、監視カメラ情報、飛行装置情報、制御種別情報、画像データなどの各種情報を記憶している。各種情報について説明すると、監視カメラ情報は、各監視カメラ2に関する情報であって、各監視カメラ2の位置情報(撮影位置P:緯度、経度、高さ)、撮影方向、撮影範囲、焦点距離などの情報が含まれ、動的に変化するものは監視カメラ2から受信する画像データに含まれる情報に基づいて逐次更新される。   The storage unit 43 stores various types of information such as monitoring camera information, flight device information, control type information, and image data. The various types of information will be described. The monitoring camera information is information related to each monitoring camera 2, and includes position information (shooting position P: latitude, longitude, height) of each monitoring camera 2, shooting direction, shooting range, focal length, and the like. Those that change dynamically are sequentially updated based on the information included in the image data received from the surveillance camera 2.

なお、移動可能な監視カメラ2においては、位置情報、撮影方向、撮影範囲、焦点距離が変化するため、受信する画像データに含まれる情報に基づいて制御部46により逐次更新される。具体的には、位置情報と撮影方向、焦点距離は受信した情報をそのまま更新し、撮影範囲は画像データに含まれる位置情報、撮影方向、焦点距離に基づいて算出し、更新する。   In the movable monitoring camera 2, since the position information, the shooting direction, the shooting range, and the focal length change, the control unit 46 sequentially updates the information based on the information included in the received image data. Specifically, the received information is directly updated for the position information, the shooting direction, and the focal length, and the shooting range is calculated and updated based on the position information, the shooting direction, and the focal length included in the image data.

また、監視領域の所定箇所に固定して設置される監視カメラ2の位置情報に関する情報は、予め記憶部43に監視カメラ情報の一部として記憶しておくことができる。このような監視カメラ2のうち、パンチルトズーム可能な監視カメラ2については、撮影方向、撮影範囲、焦点距離が変化するため、受信する画像データに含まれる情報に基づいて、上記と同様にして制御部46により逐次更新される。   In addition, information relating to position information of the monitoring camera 2 that is fixedly installed at a predetermined location in the monitoring area can be stored in advance in the storage unit 43 as part of the monitoring camera information. Among such surveillance cameras 2, the surveillance camera 2 capable of pan / tilt / zoom is controlled in the same manner as described above based on the information included in the received image data because the photographing direction, the photographing range, and the focal length change. It is sequentially updated by the unit 46.

飛行装置情報は、飛行装置3に関する情報であって、飛行装置3の位置情報(飛行位置又は撮影位置:緯度、経度、高さ)、カメラ部31の撮像部31aの撮影方向、撮影範囲、焦点距離などの情報が含まれ、動的に変化するものは飛行装置3から受信する画像データに含まれる情報に基づいて、監視カメラ情報の更新と同様にして制御部46により逐次更新される。   The flying device information is information related to the flying device 3, and includes position information of the flying device 3 (flight position or shooting position: latitude, longitude, height), shooting direction, shooting range, and focus of the imaging unit 31a of the camera unit 31. Information that includes information such as distance and changes dynamically is sequentially updated by the control unit 46 in the same manner as the monitoring camera information is updated based on information included in image data received from the flying device 3.

制御種別情報は、図2に示すように、俯角と距離、又は俯角と距離と方向とを制御種別ごとに紐付けにより対応付けて記憶部43に記憶される情報である。図2の例では、例えば不審な行動をとる不審者を撮影する「不審者撮影」、例えばイベント会場における混雑状況を撮影する「混雑撮影」、例えば立ち入り禁止区域に侵入した警告対象に警告を発する「警告」、例えば飲食品、救命器具などの必要な物資を供給する「物資供給」を制御種別としている。   As shown in FIG. 2, the control type information is information stored in the storage unit 43 by associating the depression angle and distance or the depression angle, distance, and direction with each control type by associating. In the example of FIG. 2, for example, “suspicious person photographing” for photographing a suspicious person taking a suspicious action, for example, “crowded photographing” for photographing a congestion situation at an event venue, for example, a warning is issued to a warning object that has entered a restricted area. “Warning”, for example, “material supply” for supplying necessary supplies such as food and drink, lifesaving equipment, and the like is set as a control type.

さらに説明すると、図2において、制御種別が「不審者撮影」の場合は、俯角:α1、距離:W2、方向:不審者の進行方向と逆方向が紐付けされる。制御種別が「混雑撮影」の場合は、俯角:α2、距離:W3が紐付けされる。制御種別が「警告」の場合は、俯角:α2、距離:W1、方向:警告対象の進行方向と逆方向が紐付けされる。制御種別が「物資供給」の場合は、俯角:α2、距離:W1が紐付けされる。   More specifically, in FIG. 2, when the control type is “suspicious person photographing”, the depression angle: α 1, the distance: W 2, and the direction: the traveling direction of the suspicious person and the opposite direction are linked. When the control type is “crowded shooting”, the depression angle: α2 and the distance: W3 are linked. When the control type is “warning”, the depression angle: α2, the distance: W1, and the direction: the traveling direction and the reverse direction of the warning target are linked. When the control type is “material supply”, the depression angle: α2 and the distance: W1 are linked.

そして、上述した制御種別情報における俯角と距離と方向については、監視員の操作部44の入力操作により予め設定される。   Then, the depression angle, distance, and direction in the control type information described above are set in advance by an input operation of the operation unit 44 of the monitor.

ここで、制御種別が「不審者撮影」の俯角の場合は、他の「混雑撮影」、「警告」、「物資供給」における俯角と比較して、不審者の顔や不審車両の自動車登録番号標(ナンバープレート)を捉えやすい小さい角度であるのが好ましいため、α1<α2の関係を満たす俯角に設定される。また、制御種別が「混雑撮影」の俯角の場合は、「不審者撮影」の俯角と比較して、人物の位置関係など混雑の様子を把握するために俯瞰することのできる大きい角度であるのが好ましいため、α1<α2の関係を満たす俯角に設定される。さらに、制御種別が「混雑撮影」の場合は周囲を含む全体状況を把握できる距離が望ましく、「混雑撮影」と比べると制御種別が「警告」や「物資供給」の場合は監視対象に近づいて確実に警告したり物資を供給する必要がある。また、「不審者撮影」は「混雑撮影」に比べて不審者の顔を把握できるようにするため近づく必要があるが、「警告」や「物資供給」ほど近づく必要はない。このため、制御種別が「混雑撮影」の場合の距離W3が最も長く、制御種別が「警告」や「物資供給」の場合の距離W1が最も短くなるように、W1<W2<W3の関係を満たす距離に設定される。   Here, when the control type is a depression angle of “suspicious person shooting”, compared to the depression angles of other “crowded shooting”, “warning”, and “supply of goods”, the car registration number of the suspicious person's face and the suspicious vehicle Since the angle is preferably a small angle at which the mark (number plate) can be easily captured, the depression angle satisfying the relationship of α1 <α2 is set. In addition, when the control type is a “congestion shooting” depression angle, it is a larger angle than the “suspicious person photography” depression angle, which can be looked down to understand the crowded situation such as the positional relationship of people. Therefore, the depression angle satisfying the relationship of α1 <α2 is set. Furthermore, when the control type is “crowded shooting”, it is desirable to have a distance that allows the entire situation including the surroundings to be grasped. When the control type is “warning” or “supply of goods”, the distance is closer to the monitoring target. There is a need to ensure warnings and supplies. “Suspicious person photography” needs to be closer to “suspicious person photography” in order to grasp the face of a suspicious person, but it does not need to be as close as “warning” or “material supply”. Therefore, the relationship of W1 <W2 <W3 is set so that the distance W3 is the longest when the control type is “congestion shooting” and the distance W1 is the shortest when the control type is “warning” or “supply of goods”. Set to meet distance.

なお、図2では、俯角と距離、又は俯角と距離と方向が制御種別ごとに紐付けされた制御種別情報を例にとって説明したが、俯角のみ、距離のみ、方向のみ、俯角と距離、俯角と方向、距離と方向が制御種別ごとに紐付けされた制御種別情報を記憶部43に記憶させておくこともできる。また、図2において、制御種別が「不審者撮影」、「警告」、「物資供給」の場合には、監視対象がビル屋上などの高所にある場合を想定し、俯角に限らず仰角で設定してもよい。そして、上述した制御種別情報は、図2に示すものに限定されず、制御種別に応じて俯角、距離、方向が適宜設定される。   In FIG. 2, the control type information in which the depression angle and distance, or depression angle, distance, and direction are associated with each control type has been described as an example. However, only depression angle, only distance, only direction, depression angle and distance, depression angle Control type information in which the direction, distance, and direction are associated with each control type can be stored in the storage unit 43. In addition, in FIG. 2, when the control type is “suspicious person photographing”, “warning”, and “supply of goods”, it is assumed that the monitoring target is in a high place such as a rooftop of the building. It may be set. The control type information described above is not limited to that shown in FIG. 2, and the depression angle, distance, and direction are appropriately set according to the control type.

画像データは、各監視カメラ2や飛行装置3から所定のフレーム周期で所定時間おきに送信されるデータであり、監視カメラ2ごと飛行装置3ごとに記憶部43に逐次蓄積される。   The image data is data transmitted from the respective monitoring cameras 2 and the flying devices 3 at predetermined frame intervals every predetermined time, and is sequentially stored in the storage unit 43 for each monitoring camera 2 and each flying device 3.

操作部44は、例えばマウス、キーボード、表示部45の表示画面上のソフトキーなどで構成される。操作部44は、後述する対処処理の開始又は終了の指示、監視カメラ2の撮影俯仰角θや飛行装置3の撮像部31aの撮影俯仰角αの設定、高度Hの設定、飛行装置3への警告や物資供給の指示、監視カメラ2の画像に基づく監視対象Nの追跡の指示、監視対象Nの特徴情報(後述)の指定、記憶部43に記憶保存された画像から監視対象Nの指定、各監視カメラ2や飛行装置3への指示(撮影指示、飛行指示)、画像データの削除などを行う際に監視員によって操作される。   The operation unit 44 includes, for example, a mouse, a keyboard, and soft keys on the display screen of the display unit 45. The operation unit 44 instructs the start or end of the processing to be described later, sets the shooting elevation angle θ of the surveillance camera 2 and the imaging elevation angle α of the imaging unit 31a of the flying device 3, sets the altitude H, and sets the flying device 3 to the flying device 3. Instructions for supplying warnings and supplies, instructions for tracking the monitoring target N based on the image of the monitoring camera 2, specification of characteristic information (described later) of the monitoring target N, specification of the monitoring target N from the image stored and stored in the storage unit 43, It is operated by a supervisor when giving instructions (shooting instructions, flight instructions) to each surveillance camera 2 and flying device 3 and deleting image data.

表示部45は、例えば液晶表示器などで構成される。表示部45は、制御部46の制御により、複数の監視カメラ2や飛行装置3から取得した画像データの表示などを行っている。   The display unit 45 is composed of, for example, a liquid crystal display. The display unit 45 displays image data acquired from the plurality of monitoring cameras 2 and the flying device 3 under the control of the control unit 46.

制御部46は、監視対象Nに対して対処を行うのに適した目標位置に飛行装置3を移動制御する対処処理を実行するための構成として、監視対象検出部46a、取得部46b、目標算出部46c、飛行装置制御部46d、表示制御部46eを備えている。   The control unit 46 includes a monitoring target detection unit 46a, an acquisition unit 46b, a target calculation as a configuration for executing a handling process for moving and controlling the flying device 3 to a target position suitable for handling the monitoring target N. A unit 46c, a flying device control unit 46d, and a display control unit 46e.

監視対象検出部46aは、監視カメラ2から所定のフレーム周期で所定時間おきに送信されてくる画像データの画像から監視対象N(例えば不審者や混雑)を検出する。この監視対象Nの検出は、従来の画像認識技術を用いればよい。一例を挙げれば、監視対象Nを特定するための複数種類の特徴を抽出し、抽出した特徴を対象特徴(特徴情報)として記憶部43に予め記憶させる。例えば人物が監視対象Nである場合は、顔画像、年齢、性別、髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色、身長、体型などが複数種類の特徴情報などとする。これら複数種類の特徴情報は、識別器や色ヒストグラムを用いた公知の手法によって抽出される。   The monitoring target detection unit 46a detects the monitoring target N (for example, a suspicious person or congestion) from the image of the image data transmitted from the monitoring camera 2 every predetermined time with a predetermined frame period. A conventional image recognition technique may be used to detect the monitoring target N. For example, a plurality of types of features for specifying the monitoring target N are extracted, and the extracted features are stored in advance in the storage unit 43 as target features (feature information). For example, when the person is the monitoring target N, the face image, age, gender, hair color, upper body clothes color, lower body clothes color, possession type, possession color, height, body type, etc. are the plural types of feature information. . These multiple types of feature information are extracted by a known method using a discriminator or a color histogram.

尚、監視対象Nの特徴情報の入力方法としては、監視員が必要に応じて操作部44を操作して、記憶部43に記憶保存された監視カメラ2の画像から監視対象Nに当たる部分を指定すると、この指定された画像から上述した特徴情報を抽出し、抽出した特徴情報を対象特徴として記憶部43に記憶させる。また、監視員の指定操作に依らず、監視対象Nが予め決まっている場合には、その監視対象Nの特徴情報を対象特徴として記憶部43に記憶させておく。   As a method for inputting the feature information of the monitoring target N, the monitor operates the operation unit 44 as necessary, and designates the portion corresponding to the monitoring target N from the image of the monitoring camera 2 stored and stored in the storage unit 43. Then, the above-described feature information is extracted from the designated image, and the extracted feature information is stored in the storage unit 43 as a target feature. In addition, when the monitoring target N is determined in advance without depending on the operation designated by the monitor, the feature information of the monitoring target N is stored in the storage unit 43 as the target feature.

そして、監視対象Nを追跡する場合には、例えば、複数の監視カメラ2毎に撮影される画像から、上述した対象特徴の抽出手法と同様にして複数種類の特徴情報を抽出し、抽出した特徴情報と対象特徴との対比により監視対象Nを検出する。これら複数種類の特徴情報は、個々の特徴情報について監視対象Nの検出における信頼性を考慮した重み付け係数が設定されている。そして、上述した複数種類の特徴情報を特徴情報の種別ごとに比較して類似度を算出する。続いて、複数種類の特徴情報ごとに算出した類似度に対し、重み付け係数を掛け合わせ、特徴情報の種類毎の類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とする。そして、予め記憶部43に記憶された監視対象Nと見なせる監視対象検出閾値(例えば類似度90%)と全体類似度とを比較し、全体類似度が監視対象検出閾値を超えていると判定すると、監視対象Nとして検出する。   When tracking the monitoring target N, for example, a plurality of types of feature information are extracted from the images taken for each of the plurality of monitoring cameras 2 in the same manner as the above-described target feature extraction method, and the extracted features are extracted. The monitoring target N is detected by comparing the information with the target feature. In these plural types of feature information, a weighting coefficient is set for each feature information in consideration of reliability in detection of the monitoring target N. Then, the degree of similarity is calculated by comparing the plurality of types of feature information described above for each type of feature information. Subsequently, the similarity calculated for each of the plurality of types of feature information is multiplied by a weighting coefficient, and the similarity for each type of feature information is multiplied by the weighting coefficient to obtain an overall similarity. Then, when the monitoring target detection threshold (for example, similarity 90%) that can be regarded as the monitoring target N stored in advance in the storage unit 43 is compared with the overall similarity, and it is determined that the overall similarity exceeds the monitoring target detection threshold. , Detected as a monitoring target N.

また、監視対象検出部46aは、上記のようにして検出した監視対象Nを所定フレームおきに取得される画像にわたって追跡する。例えば、現在の画像と1フレーム前の画像とのフレーム間差分をとることで画像中における変化領域を抽出し、監視対象Nの位置に相当する変化領域を特定する。そして、次に新たな画像データを取得した際も同様にフレーム間差分を行って変化領域を抽出し、この抽出した変化領域が、前回の監視対象Nに相当する変化領域として特定した変化領域と、その位置、大きさ、形状などの点において同一の物体とみなせるかを判定し、同一とみなせる場合には、その変化領域を今回の監視対象Nに相当する変化領域として特定する。これらの処理を新たな画像データを取得する度に繰り返すことで、監視カメラ2の画像中において監視対象Nを検出して追跡している。この監視対象Nの追跡にあたっては、監視対象Nの位置や進行方向が記憶部43に逐次更新記憶される。そして、監視対象検出部46aは、上述した手法により監視対象Nとして不審者や混雑を検出すると、この不審者や混雑を飛行装置3の撮像部31aで撮影するため、制御種別(不審者撮影、混雑撮影)を含む制御信号を目標算出部46cに出力する。   In addition, the monitoring target detection unit 46a tracks the monitoring target N detected as described above over images acquired every predetermined frame. For example, the change area in the image is extracted by taking the inter-frame difference between the current image and the image one frame before, and the change area corresponding to the position of the monitoring target N is specified. Then, when new image data is acquired next, the difference area is similarly extracted to extract the change area, and the extracted change area is the change area specified as the change area corresponding to the previous monitoring target N. Then, it is determined whether the object can be regarded as the same object in terms of its position, size, shape, and the like. By repeating these processes every time new image data is acquired, the monitoring target N is detected and tracked in the image of the monitoring camera 2. In tracking the monitoring target N, the position and the traveling direction of the monitoring target N are sequentially updated and stored in the storage unit 43. When the monitoring target detection unit 46a detects the suspicious person or the congestion as the monitoring target N by the above-described method, the imaging target 31a of the flying device 3 captures the suspicious person or the congestion. A control signal including (congested shooting) is output to the target calculation unit 46c.

取得部46bは、監視員により操作部44が操作されて後述する対処処理の指示がなされると、記憶部43から監視対象Nの位置や進行方向D1に関する情報を取得し、取得した情報を目標算出部46cに出力する。   When the operation unit 44 is operated by a monitoring person and an instruction for a countermeasure process described later is made by the monitoring person, the acquisition unit 46b acquires information on the position of the monitoring target N and the traveling direction D1 from the storage unit 43, and sets the acquired information as a target. It outputs to the calculation part 46c.

なお、取得部46bは、制御種別が「警告」や「物資供給」の場合には、監視員が表示部45に表示される監視カメラ2の画像から警告対象や物資供給する位置を確認し、操作部44の操作入力により警告や物資供給する位置を取得することができる。また、制御種別が「警告」の場合には、取得部46bは、監視員が表示部45に表示される監視カメラ2の前後の画像から警告すべき監視対象Nの進行方向D1を確認し、操作部44の操作入力により進行方向D1を取得することができる。その際、制御種別(警告、物資供給)の入力も合わせて行い、制御種別を含む制御信号を目標算出部46cに出力する。   In addition, when the control type is “warning” or “material supply”, the acquisition unit 46b confirms the warning target and the position where the material is supplied from the image of the monitoring camera 2 displayed on the display unit 45, A warning or a supply position can be acquired by an operation input of the operation unit 44. When the control type is “warning”, the acquisition unit 46b confirms the traveling direction D1 of the monitoring target N to be warned from the images before and after the monitoring camera 2 displayed on the display unit 45 by the monitor. The traveling direction D <b> 1 can be acquired by an operation input of the operation unit 44. At that time, the control type (warning, supply of goods) is also input, and a control signal including the control type is output to the target calculation unit 46c.

目標算出部46cは、制御種別を含む制御信号の入力があったときに、飛行装置3を移動制御するための目標の方向と位置を算出するもので、方向算出部46caと位置算出部46cbを有している。   The target calculation unit 46c calculates the direction and position of a target for movement control of the flying device 3 when a control signal including a control type is input. The target calculation unit 46ca and the position calculation unit 46cb Have.

方向算出部46caは、監視対象Nが不審者又は警告対象(制御種別が不審者撮影又は警告)である場合、取得部46bが取得した監視対象Nの進行方向D1を読み出し、この読み出した監視対象Nの進行方向D1と逆方向D2を算出している。この監視対象Nの進行方向D1と逆方向D2とは、監視カメラ2にて撮影された画像上の監視対象Nの位置に向かう方向である。例えば図4に示すように、監視対象Nを原点(0,0)とし、北を基準方位としたときの基準方位から角度φをなす方向を監視対象Nの進行方向D1とすると、この監視対象Nの進行方向D1と反対に飛行装置3から監視対象Nの位置に向かう方向が逆方向D2となる。   When the monitoring target N is a suspicious person or a warning target (control type is suspicious person shooting or warning), the direction calculation unit 46ca reads the traveling direction D1 of the monitoring target N acquired by the acquisition unit 46b, and reads the monitoring target The traveling direction D1 and the reverse direction D2 of N are calculated. The traveling direction D1 and the reverse direction D2 of the monitoring target N are directions toward the position of the monitoring target N on the image captured by the monitoring camera 2. For example, as shown in FIG. 4, when the monitoring target N is the origin (0, 0) and the direction that forms the angle φ from the reference azimuth when north is the reference azimuth is the traveling direction D1 of the monitoring target N, this monitoring target The direction from the flying device 3 to the position of the monitoring target N is the reverse direction D2 opposite to the N traveling direction D1.

位置算出部46cbは、取得部46bが取得した監視対象Nの位置と、記憶部43に記憶された飛行装置情報を元に、飛行装置3を移動制御するための目標位置を算出している。   The position calculation unit 46 cb calculates a target position for movement control of the flying device 3 based on the position of the monitoring target N acquired by the acquisition unit 46 b and the flying device information stored in the storage unit 43.

ここで、目標位置の算出方法について図3及び図4を参照しながら説明する。図3は地上の水平面を仮想水平面Eとし、仮想水平面Eを側面から見たときの監視対象Nと監視カメラ2と飛行装置3との位置関係を示す図である。また、図4は上空から地上を鉛直方向に見たときの仮想水平面E上における監視対象Nと監視カメラ2と飛行装置3との位置関係を示す図である。   Here, a method for calculating the target position will be described with reference to FIGS. FIG. 3 is a diagram illustrating a positional relationship among the monitoring target N, the monitoring camera 2, and the flying device 3 when the ground horizontal plane is a virtual horizontal plane E and the virtual horizontal plane E is viewed from the side. FIG. 4 is a diagram illustrating a positional relationship among the monitoring target N, the monitoring camera 2, and the flying device 3 on the virtual horizontal plane E when the ground is viewed from above in the vertical direction.

図3において、監視対象Nから飛行装置3の撮像部31aまでの仮想水平面E上の撮影距離(直線距離)をW、監視対象Nと飛行装置3の撮像部31aとを結ぶ直線と仮想水平面Eとのなす角度(撮影俯仰角)をα、仮想水平面Eからの飛行装置3の高度をHとすると、仮想水平面E上の撮影距離Wは、W=H/tanα…式(1)で表すことができる。   In FIG. 3, the imaging distance (straight line distance) on the virtual horizontal plane E from the monitoring target N to the imaging unit 31 a of the flying device 3 is W, and the straight line connecting the monitoring target N and the imaging unit 31 a of the flying device 3 and the virtual horizontal plane E And the altitude of the flying device 3 from the virtual horizontal plane E is H, the imaging distance W on the virtual horizontal plane E is expressed by W = H / tan α (1) Can do.

そして、監視対象Nと飛行装置3の撮像部31aとを結ぶ直線と仮想水平面Eとのなす撮影俯仰角αと撮影距離Wは、制御種別に応じて記憶部43から読み出して設定される。例えば制御種別が「不審者撮影」であれば、撮影俯仰角αがα1、距離WがW2に設定される。また、制御種別が「混雑撮影」であれば、撮影俯仰角αがα2、距離WがW3に設定される。さらに、制御種別が「警告者」や「物資供給」であれば、撮影俯仰角αがα2、距離WがW1に設定される。そして、仮想水平面Eからの飛行装置3の高度Hは、撮影俯仰角αと距離Wが設定されると、上述した式(1)から算出して設定される。   The shooting elevation angle α and the shooting distance W formed by the straight line connecting the monitoring target N and the imaging unit 31a of the flying device 3 and the virtual horizontal plane E are read from the storage unit 43 and set according to the control type. For example, if the control type is “suspicious person photographing”, the photographing elevation angle α is set to α1, and the distance W is set to W2. If the control type is “crowded shooting”, the shooting elevation angle α is set to α2 and the distance W is set to W3. Further, if the control type is “warner” or “material supply”, the shooting elevation angle α is set to α2 and the distance W is set to W1. Then, the altitude H of the flying device 3 from the virtual horizontal plane E is calculated and set from the above-described equation (1) when the shooting elevation angle α and the distance W are set.

今、図4に示すように、監視対象Nの位置を原点(0,0)としたときの基準方位(北)からの角度φの方向を監視対象Nの進行方向D1とすると、飛行装置3の移動位置(目標位置)は図3における座標(Wsinφ,Wcosφ)、撮影方向は監視対象Nの進行方向D1と逆方向D2のφ+180°として算出することができる。   As shown in FIG. 4, when the direction of the angle φ from the reference azimuth (north) when the position of the monitoring target N is the origin (0, 0) is the traveling direction D1 of the monitoring target N, the flying device 3 3 can be calculated as coordinates (Wsin φ, W cos φ) in FIG. 3, and the imaging direction can be calculated as φ + 180 ° in the traveling direction D1 and the reverse direction D2 of the monitoring target N.

飛行装置制御部46dは、目標算出部46cの位置算出部46cbが算出した目標位置に飛行装置3を移動制御する。また、飛行装置制御部46dは、目標位置において制御種別に応じて設定された撮影俯仰角αにて撮影範囲を撮影するように、飛行装置3又は撮像部31aの方向と飛行装置3の高度Hを制御する。   The flying device control unit 46d controls the movement of the flying device 3 to the target position calculated by the position calculating unit 46cb of the target calculating unit 46c. In addition, the flying device control unit 46d and the altitude H of the flying device 3 or the imaging unit 31a so that the shooting range is shot at the shooting elevation angle α set according to the control type at the target position. To control.

表示制御部46eは、表示部45の表示を制御する。具体的には、通常の監視状態において、監視カメラ2から所定時間おきに送信される画像データに含まれる最新の画像を表示部45に表示している。また、後述する対処処理では、監視カメラ2と飛行装置3の両方から送信される最新の画像を表示部45に表示する。これにより、監視員は、表示部45に表示された画像をモニタすることにより監視領域の最新状況を知ることができる。   The display control unit 46 e controls display on the display unit 45. Specifically, in the normal monitoring state, the latest image included in the image data transmitted from the monitoring camera 2 every predetermined time is displayed on the display unit 45. In the coping process described later, the latest image transmitted from both the monitoring camera 2 and the flying device 3 is displayed on the display unit 45. Thereby, the monitor can know the latest situation of the monitoring area by monitoring the image displayed on the display unit 45.

次に、上記のように構成される監視システム1の動作として、監視対象に対して対処を行うのに適した目標位置に飛行装置3を移動制御する対処処理について説明する。   Next, as the operation of the monitoring system 1 configured as described above, a handling process for controlling the movement of the flying device 3 to a target position suitable for handling the monitoring target will be described.

監視システム1は、通常、地上から撮影した複数の監視カメラ2からの画像データに基づいて監視対象検出部46aが監視対象Nを検出して追跡を行っている。ここで、監視対象Nを追跡している際に、監視員が操作部44を操作して対処処理の指示を行うと、制御種別に応じて飛行装置3を目標位置まで移動制御する対処処理が開始される。以下、制御種別ごとの対処処理について説明する。なお、対処処理は、監視員の操作部44の操作によらず、監視対象検出部46aが監視対象Nを検出すると自動的に開始するようにしてもよい。   In the monitoring system 1, the monitoring target detection unit 46 a normally detects and monitors the monitoring target N based on image data from a plurality of monitoring cameras 2 taken from the ground. Here, when the monitoring person operates the operation unit 44 and instructs the countermeasure processing while tracking the monitoring target N, the countermeasure processing for controlling the movement of the flying device 3 to the target position is performed according to the control type. Be started. Hereinafter, the handling process for each control type will be described. The coping process may be automatically started when the monitoring target detection unit 46a detects the monitoring target N regardless of the operation of the operation unit 44 by the monitor.

・制御種別が「不審者撮影」の場合
目標算出部46cは、制御種別として「不審者撮影」を含む制御信号が入力されると、記憶部43を参照し、図2に示す制御種別の「不審者撮影」に対応する俯角:α1、距離:W2、方向:不審者の進行方向と逆方向の情報を読み出し、読み出した情報を元に飛行装置3の目標位置を算出する。飛行装置制御部46dは、目標算出部46cが目標位置を算出すると、この算出した目標位置まで飛行装置3を移動制御する。そして、飛行装置3は、目標位置に到着すると、撮像部31aにて不審者の進行方向D1と逆方向D2から不審者を撮影する。この撮像部31aにて撮影した不審者の画像は、所定フレーム周期で所定時間おきにセンタ装置4に送信され、センタ装置4の表示部45に表示される。
When the control type is “suspicious person shooting” When the control signal including “suspicious person shooting” is input as the control type, the target calculation unit 46c refers to the storage unit 43 and displays the control type “ The depression angle corresponding to “suspicious person photographing”: α1, distance: W2, direction: information in the direction opposite to the traveling direction of the suspicious person is read, and the target position of the flying device 3 is calculated based on the read information. When the target calculation unit 46c calculates the target position, the flying device control unit 46d controls movement of the flying device 3 to the calculated target position. When the flying device 3 arrives at the target position, the imaging unit 31a photographs the suspicious person from the direction D1 and the direction D2 opposite to the suspicious person. The image of the suspicious person imaged by the imaging unit 31a is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period and displayed on the display unit 45 of the center device 4.

・制御種別が「混雑撮影」の場合
目標算出部46cは、制御種別として「混雑撮影」を含む制御信号が入力されると、記憶部43を参照し、制御種別の「混雑撮影」に対応する俯角:α2、距離:W3の情報を読み出し、読み出した情報を元に飛行装置3の目標位置を算出する。飛行装置制御部46dは、目標算出部46cが目標位置を算出すると、この算出した目標位置まで飛行装置3を移動制御する。そして、飛行装置3は、目標位置に到着すると、撮像部31aにて混雑状況を撮影する。この撮像部31aにて撮影した混雑状況の画像は、所定フレーム周期で所定時間おきにセンタ装置4に送信され、センタ装置4の表示部45に表示される。
When the control type is “crowded shooting” When the control signal including “crowded shooting” is input as the control type, the target calculation unit 46c refers to the storage unit 43 and corresponds to the control type “crowded shooting”. Information on depression angle: α2 and distance: W3 is read, and the target position of the flying device 3 is calculated based on the read information. When the target calculation unit 46c calculates the target position, the flying device control unit 46d controls movement of the flying device 3 to the calculated target position. Then, when the flying device 3 arrives at the target position, the imaging unit 31a captures the congestion situation. The congestion state image captured by the imaging unit 31a is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period and displayed on the display unit 45 of the center device 4.

・制御種別が「警告」の場合
目標算出部46cは、制御種別として「警告」を含む制御信号が入力されると、記憶部43を参照し、図2に示す制御種別の「警告」に対応する俯角:α2、距離:W1、方向:警告対象の進行方向と逆方向の情報を読み出し、読み出した情報を元に飛行装置3の目標位置を算出する。飛行装置制御部46dは、目標算出部46cが目標位置を算出すると、この算出した目標位置まで飛行装置3を移動制御する。そして、飛行装置3は、目標位置に到着すると、監視員によるセンタ装置4の操作部44の操作入力の指示により制御部36の警告制御部36cが警告部38を制御し、警告対象の進行方向D1と逆方向D2から警告対象に向けて照明をあてるとともに、警告対象に対して音声により警告を促す。また、撮像部31aにて警告対象を撮影する。この撮像部31aにて撮影した警告対象の画像は、所定フレーム周期で所定時間おきにセンタ装置4に送信され、センタ装置4の表示部45に表示される。
When the control type is “warning” When the control signal including “warning” as the control type is input, the target calculation unit 46c refers to the storage unit 43 and corresponds to the control type “warning” illustrated in FIG. Depression angle: α2, distance: W1, direction: information in the direction opposite to the traveling direction of the warning target is read, and the target position of the flying device 3 is calculated based on the read information. When the target calculation unit 46c calculates the target position, the flying device control unit 46d controls movement of the flying device 3 to the calculated target position. Then, when the flying device 3 arrives at the target position, the warning control unit 36c of the control unit 36 controls the warning unit 38 according to the instruction of the operation input of the operation unit 44 of the center device 4 by the monitor, and the traveling direction of the warning target Illumination is directed toward the warning target from the direction D2 opposite to D1, and a warning is urged by voice to the warning target. Further, the imaging unit 31a captures a warning target. The warning target image captured by the imaging unit 31a is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period and displayed on the display unit 45 of the center device 4.

・制御種別が「物資供給」の場合
目標算出部46cは、制御種別として「物資供給」を含む制御信号が入力されると、記憶部43を参照し、図2に示す制御種別の「物資供給」に対応する俯角:α2、距離:W1の情報を読み出し、読み出した情報を元に飛行装置3の目標位置を算出する。飛行装置制御部46dは、目標算出部46cが目標位置を算出すると、この算出した目標位置まで飛行装置3を移動制御する。そして、飛行装置3は、目標位置に到着すると、監視員によるセンタ装置4の操作部44の操作入力の指示により制御部36の物資供給制御部36dが物資供給部39を制御し、目標位置に物資を投下して供給する。また、撮像部31aにて物資が供給された目標位置を撮影する。この撮像部31aにて撮影した目標位置の画像は、所定フレーム周期で所定時間おきにセンタ装置4に送信され、センタ装置4の表示部45に表示される。
When the Control Type is “Supply Supply” When the control signal including “Supply Supply” is input as the control type, the target calculation unit 46c refers to the storage unit 43 and displays the “Supply Supply” of the control type shown in FIG. Is read out, and the target position of the flying device 3 is calculated based on the read information. When the target calculation unit 46c calculates the target position, the flying device control unit 46d controls movement of the flying device 3 to the calculated target position. Then, when the flying device 3 arrives at the target position, the material supply control unit 36d of the control unit 36 controls the material supply unit 39 according to the instruction of the operation input of the operation unit 44 of the center device 4 by the monitor, and the material supply unit 39 Drop supplies to supply. Further, the target position to which the supplies are supplied is photographed by the imaging unit 31a. The image of the target position imaged by the imaging unit 31a is transmitted to the center device 4 every predetermined time with a predetermined frame period and displayed on the display unit 45 of the center device 4.

なお、上述した実施の形態においては、位置算出部46cが算出する目標位置は、図3及び図4上で示した位置そのものとして説明したが、この位置を中心とした誤差範囲を設け、この誤差範囲を目標位置としてよい。   In the above-described embodiment, the target position calculated by the position calculation unit 46c has been described as the position itself shown in FIGS. 3 and 4. However, an error range centered on this position is provided, and this error is calculated. The range may be the target position.

以上説明したように、上述した実施の形態による監視システムによれば、以下に示す効果を奏する。   As described above, the monitoring system according to the above-described embodiment has the following effects.

センタ装置4の記憶部43には、例えば不審者撮影、混雑撮影、警告、物資供給などの制御種別ごとに監視対象に対する俯仰角、距離、方向の情報を選択的に紐付けて記憶させておく。目標算出部46cは、監視対象検出部46aによる監視対象の検出や、監視員による操作部44の操作により対処処理が開始され、制御種別を含む制御信号が入力されると、記憶部43を参照して制御種別に対応する情報(俯仰角、距離、方向の組合せ)を読み出し、読み出した情報を元に飛行装置3の目標位置を算出する。飛行装置制御部46dは、目標算出部46cが算出した目標位置まで飛行装置3を移動制御する。かかる構成により、制御種別を考慮して、監視対象に対して対処を行うのに適した目標位置まで飛行装置3を移動させることができる。   In the storage unit 43 of the center device 4, for example, information on the elevation angle, distance, and direction for the monitoring target is selectively associated and stored for each control type such as suspicious person photographing, crowded photographing, warning, and supply of goods. . The target calculation unit 46c refers to the storage unit 43 when a countermeasure process is started by detection of a monitoring target by the monitoring target detection unit 46a or an operation of the operation unit 44 by a monitor, and a control signal including a control type is input. Then, information corresponding to the control type (combination of elevation angle, distance, and direction) is read, and the target position of the flying device 3 is calculated based on the read information. The flying device control unit 46d controls the movement of the flying device 3 to the target position calculated by the target calculation unit 46c. With such a configuration, the flying device 3 can be moved to a target position suitable for dealing with the monitoring target in consideration of the control type.

以上、本発明に係る監視システムの最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。   The best mode of the monitoring system according to the present invention has been described above, but the present invention is not limited by the description and drawings according to this mode. That is, it is a matter of course that all other forms, examples, operation techniques, and the like made by those skilled in the art based on this form are included in the scope of the present invention.

1 監視システム
2 監視カメラ
3 飛行装置
4 センタ装置(追跡処理装置)
21 カメラ部
22 制御部
23 通信部
31 カメラ部
32 推進部
33 方向舵
34 測位部
35 姿勢検出部
36 制御部
37 無線通信部
41 通信部
42 無線通信部
43 記憶部
44 操作部
45 表示部
46 制御部
46a 監視対象検出部
46b 取得部
46c 目標算出部
46ca 方向算出部
46cb 位置算出部
D1 監視対象の進行方向
D2 飛行装置の撮像部の撮影方向
E 仮想水平面
H 飛行装置の高度
N 監視対象
W(W1、W2、W3) 撮影距離
α(α1、α2) 飛行装置の撮像部の撮影俯仰角
DESCRIPTION OF SYMBOLS 1 Surveillance system 2 Surveillance camera 3 Flight apparatus 4 Center apparatus (tracking processing apparatus)
DESCRIPTION OF SYMBOLS 21 Camera part 22 Control part 23 Communication part 31 Camera part 32 Propulsion part 33 Rudder 34 Positioning part 35 Posture detection part 36 Control part 37 Wireless communication part 41 Communication part 42 Wireless communication part 43 Storage part 44 Operation part 45 Display part 46 Control part 46a Monitoring target detection unit 46b Acquisition unit 46c Target calculation unit 46ca Direction calculation unit 46cb Position calculation unit D1 Direction of travel of the monitoring target D2 Imaging direction of the imaging unit of the flying device E Virtual horizontal plane H Altitude of the flying device N Monitoring target W (W1, W2, W3) Shooting distance α (α1, α2) Shooting elevation angle of the imaging unit of the flying device

Claims (3)

上空から地上を監視する飛行装置を少なくとも備えた監視システムであって、
制御種別ごとに監視対象に対する俯仰角を記憶する記憶部と、
前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する俯仰角に相当する目標位置を算出する目標算出部と、
前記目標位置に前記飛行装置を移動させる飛行装置制御部と、
を備えたことを特徴とする監視システム。
A monitoring system comprising at least a flying device for monitoring the ground from above,
A storage unit for storing the elevation angle with respect to the monitoring target for each control type;
When there is an input of a control signal including the control type, a target calculation unit that calculates a target position corresponding to the elevation angle corresponding to the control type with reference to the storage unit;
A flying device controller that moves the flying device to the target position;
A monitoring system characterized by comprising:
前記記憶部は、前記制御種別ごとに前記監視対象との距離を記憶し、
前記目標算出部は、前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する距離に相当する目標位置を算出する請求項1に記載の監視システム。
The storage unit stores a distance from the monitoring target for each control type,
The monitoring system according to claim 1, wherein when the control signal including the control type is input, the target calculation unit calculates a target position corresponding to a distance corresponding to the control type with reference to the storage unit.
前記記憶部は、前記制御種別ごとに前記監視対象に対する方向を記憶し、
前記目標算出部は、前記制御種別を含む制御信号の入力があると、前記記憶部を参照して当該制御種別に対応する方向に相当する目標位置を算出する請求項1又は請求項2に記載の監視システム。
The storage unit stores a direction for the monitoring target for each control type,
The said target calculation part will calculate the target position equivalent to the direction corresponding to the said control classification with reference to the said memory | storage part, if the control signal containing the said control classification is input. Monitoring system.
JP2014259399A 2014-12-22 2014-12-22 Monitoring system Active JP6482857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259399A JP6482857B2 (en) 2014-12-22 2014-12-22 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259399A JP6482857B2 (en) 2014-12-22 2014-12-22 Monitoring system

Publications (2)

Publication Number Publication Date
JP2016118996A true JP2016118996A (en) 2016-06-30
JP6482857B2 JP6482857B2 (en) 2019-03-13

Family

ID=56244397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259399A Active JP6482857B2 (en) 2014-12-22 2014-12-22 Monitoring system

Country Status (1)

Country Link
JP (1) JP6482857B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077759A (en) * 2016-11-11 2018-05-17 株式会社富士通エフサス Monitoring system, monitoring method, and monitoring program
WO2018116486A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Surveillance system, unmanned aerial vehicle, and surveillance method
US10356367B2 (en) 2016-11-30 2019-07-16 Kabushiki Kaisha Toyota Chuo Kenkyusho Blind spot coverage device, control device, and recording medium storing distributed control program for moving body
JP2019179528A (en) * 2018-03-30 2019-10-17 セコム株式会社 Controller
US11380103B2 (en) 2017-07-10 2022-07-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Coverage device, moving body, control device, and moving body distributed control program
WO2023157472A1 (en) * 2022-02-17 2023-08-24 株式会社Nttドコモ Control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136661A (en) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp Monitoring device
JP2014104797A (en) * 2012-11-26 2014-06-09 Hitachi-Ge Nuclear Energy Ltd Indoor inspection system
JP2014119901A (en) * 2012-12-14 2014-06-30 Secom Co Ltd Autonomous mobile robot
JP2014119828A (en) * 2012-12-13 2014-06-30 Secom Co Ltd Autonomous aviation flight robot
JP2014149621A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136661A (en) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp Monitoring device
JP2014104797A (en) * 2012-11-26 2014-06-09 Hitachi-Ge Nuclear Energy Ltd Indoor inspection system
JP2014119828A (en) * 2012-12-13 2014-06-30 Secom Co Ltd Autonomous aviation flight robot
JP2014119901A (en) * 2012-12-14 2014-06-30 Secom Co Ltd Autonomous mobile robot
JP2014149621A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077759A (en) * 2016-11-11 2018-05-17 株式会社富士通エフサス Monitoring system, monitoring method, and monitoring program
US10356367B2 (en) 2016-11-30 2019-07-16 Kabushiki Kaisha Toyota Chuo Kenkyusho Blind spot coverage device, control device, and recording medium storing distributed control program for moving body
WO2018116486A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Surveillance system, unmanned aerial vehicle, and surveillance method
JPWO2018116486A1 (en) * 2016-12-22 2019-10-24 日本電気株式会社 Surveillance system, unmanned air vehicle and monitoring method
US11380103B2 (en) 2017-07-10 2022-07-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Coverage device, moving body, control device, and moving body distributed control program
JP2019179528A (en) * 2018-03-30 2019-10-17 セコム株式会社 Controller
JP7106327B2 (en) 2018-03-30 2022-07-26 セコム株式会社 Control device
WO2023157472A1 (en) * 2022-02-17 2023-08-24 株式会社Nttドコモ Control device

Also Published As

Publication number Publication date
JP6482857B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6482857B2 (en) Monitoring system
US11879737B2 (en) Systems and methods for auto-return
US10322804B2 (en) Device that controls flight altitude of unmanned aerial vehicle
JP5618840B2 (en) Aircraft flight control system
JP5775632B2 (en) Aircraft flight control system
US11531340B2 (en) Flying body, living body detection system, living body detection method, program and recording medium
JPWO2014203593A1 (en) Remotely controlled unmanned air vehicle control system
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
JP6482855B2 (en) Monitoring system
KR20140060746A (en) Lifesaving system and method to save thereof
JP6578113B2 (en) Flying robot control system and flying robot
JP2016080698A (en) Image generation device
JP2021179976A (en) Remote operation system and operation device thereof
KR20190125588A (en) Drone with thermo-graphic camera and zoom camera for searching the missing on the sea and system for searching the missing on the sea
JP6482856B2 (en) Monitoring system
KR20120036684A (en) An intelligent aviation robot using gps
CN107908163A (en) A kind of unmanned plane Reconnaissance system based on unmanned naval vessels
JP2016082586A (en) Image generating apparatus
US10778899B2 (en) Camera control apparatus
KR20170004560A (en) Ships using the aircraft safe operation support systems
JP6482853B2 (en) Image processing device
JP6482854B2 (en) Image acquisition device
JP2021179969A (en) Remote operation system and operation device thereof
KR20110136225A (en) An intelligent aviation robot using gps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6482857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250