JP2018070010A - Unmanned aircraft controlling system, controlling method and program thereof - Google Patents

Unmanned aircraft controlling system, controlling method and program thereof Download PDF

Info

Publication number
JP2018070010A
JP2018070010A JP2016213917A JP2016213917A JP2018070010A JP 2018070010 A JP2018070010 A JP 2018070010A JP 2016213917 A JP2016213917 A JP 2016213917A JP 2016213917 A JP2016213917 A JP 2016213917A JP 2018070010 A JP2018070010 A JP 2018070010A
Authority
JP
Japan
Prior art keywords
network camera
abnormality
aerial vehicle
unmanned aerial
unmanned aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016213917A
Other languages
Japanese (ja)
Inventor
浩 長井
Hiroshi Nagai
浩 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016213917A priority Critical patent/JP2018070010A/en
Publication of JP2018070010A publication Critical patent/JP2018070010A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for determining position of unmanned aircraft in order to photograph it when the unmanned aircraft has an abnormality.SOLUTION: There is provided an unmanned aircraft controlling system where an unmanned aircraft, a network camera capable of photographing the unmanned aircraft, and an information processing apparatus are communicated via a network, which comprises: abnormality detecting means for detecting an abnormality in the unmanned aircraft; network camera determining means for determining a network camera capable of photographing the unmanned aircraft in which the abnormality has been detected by the abnormality detecting means; and photographing means for photographing the unmanned aircraft in which the abnormality has been detected with the network camera determined by the network camera determining means.SELECTED DRAWING: Figure 1

Description

無人航空機と遠隔操作端末との間の通信方式を、通信状況に応じて決定することの可能な無人航空機制御システム、その制御方法、及びプログラムに関する。   The present invention relates to an unmanned aerial vehicle control system capable of determining a communication method between an unmanned aerial vehicle and a remote control terminal according to a communication situation, a control method thereof, and a program.

従来、人が搭乗していない航空機である無人航空機が存在する。無人航空機は、大型なものから小型なものまで様々であるが、特に近年では遠隔操縦可能な小型の無人航空機(通称:ドローン)が注目されている(以下、小型の無人航空機を単に無人航空機と称する。)。   Conventionally, there is an unmanned aerial vehicle that is an aircraft on which a person is not on board. Unmanned aerial vehicles vary from large to small, but in recent years, small unmanned aerial vehicles (commonly called drones) that can be remotely controlled have attracted attention (hereinafter, small unmanned aerial vehicles are simply referred to as unmanned aerial vehicles). Called).

無人航空機は、クワッドコプターやマルチコプターとも呼ばれ、複数の回転翼を備えており、この回転翼の回転数を増減させることで、無人航空機の前進・後退・旋回・ホバリング等を行う。こうした無人航空機は、プロポと呼ばれる遠隔操作端末からの動作指示に応じて動作するほか、モニタや入力装置が一体となった操作卓から制御することも可能である。   An unmanned aerial vehicle is also called a quadcopter or a multicopter, and includes a plurality of rotor blades. By increasing or decreasing the number of rotations of the rotor blades, the unmanned aircraft advances, retreats, turns, and hovers. Such an unmanned aerial vehicle can be operated in response to an operation instruction from a remote operation terminal called a propo, and can be controlled from a console with an integrated monitor and input device.

また、ネットワークに接続可能なネットワークカメラをお天気カメラや監視カメラとして利用することが行われており、ネットワークカメラで無人航空機を撮影することも可能となっている。   In addition, network cameras that can be connected to a network are used as weather cameras and surveillance cameras, and it is also possible to photograph unmanned aerial vehicles with a network camera.

無人航空機は、無人で飛行することから、本体に異常が発生して制御不能となってしまった場合など、墜落や周りに危害を与える危険性があり、異常発生時の様子を記録することが求められている。   Since unmanned aircraft fly unmanned, there is a risk of crashing or harming the surroundings, such as when an abnormality occurs in the main unit and it becomes uncontrollable, and it is possible to record the situation at the time of the abnormality It has been demanded.

特許文献1には、地上から撮影する監視カメラと、上空から撮影する映像部を有する飛行装置とを備えた監視システムにおいて、監視領域において撮影された画像を補完し、その画像中の領域の状況を把握するのに適した他の画像を得ることができる監視システムが提案されている。   In Patent Document 1, in a surveillance system including a surveillance camera that captures images from the ground and a flying device that includes a video unit that captures images from above, the image captured in the monitoring region is complemented, and the state of the region in the image A monitoring system that can obtain other images suitable for grasping the image has been proposed.

また、特許文献2には、例えば災害発生時などの異常信号を受信すると、監視センターなどから災害発生地域に設置された監視カメラの画像データを利用者端末に送信する仕組みが提案されている。   Further, Patent Document 2 proposes a mechanism for transmitting image data of a monitoring camera installed in a disaster occurrence area from a monitoring center or the like to a user terminal when receiving an abnormal signal such as when a disaster occurs.

特開2016−118994号公報Japanese Patent Laid-Open No. 2006-118994 特開2016−72880号公報Japanese Patent Laid-Open No. 2006-72880

特許文献1では、ネットワークカメラにより飛行装置を撮影することは可能となっているが、常時撮影をしておく必要がある。   In Patent Document 1, it is possible to photograph the flying device with a network camera, but it is necessary to always photograph.

また、特許文献2では、災害発生時に災害発生地域に設置された監視カメラの画像データを利用者端末に送信することが可能であるが、無人航空機は空中を飛行しているため、設置された監視カメラが所望の無人航空機を撮影できるとは限らない。   Moreover, in patent document 2, although it is possible to transmit the image data of the monitoring camera installed in the disaster occurrence area to the user terminal at the time of the disaster occurrence, the unmanned aircraft is installed because it is flying in the air. A surveillance camera may not always be able to photograph a desired unmanned aircraft.

そこで、本発明では、無人航空機に異常が発生した際に、撮影すべき無人航空機の位置を特定して撮影することが可能な仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism capable of specifying and shooting the position of an unmanned aircraft to be photographed when an abnormality occurs in the unmanned aircraft.

無人航空機と、前記無人航空機を撮影可能なネットワークカメラ、および情報処理装置とがネットワークを介して接続された無人航空機制御システムであって、前記無人航空機の異常を検知する異常検知手段と、前記異常検知手段により異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定手段と、前記ネットワークカメラ特定手段により特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影手段と、を有することを特徴とする。   An unmanned aircraft control system in which an unmanned aircraft, a network camera capable of photographing the unmanned aircraft, and an information processing apparatus are connected via a network, wherein the abnormality detection means detects an abnormality of the unmanned aircraft, and the abnormality Network camera specifying means for specifying a network camera capable of shooting an unmanned aerial vehicle in which an abnormality is detected by the detecting means; and imaging means for shooting the unmanned aircraft in which the abnormality is detected by the network camera specified by the network camera specifying means It is characterized by having.

本発明によれば、ネ無人航空機に異常が発生した際に、撮影すべき無人航空機の位置を特定して撮影することが可能な仕組みを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when abnormality generate | occur | produces in the unmanned aircraft, the mechanism which can pinpoint the position of the unmanned aircraft which should be image | photographed and can be image | photographed can be provided.

本発明の実施形態における、無人航空機制御システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of an unmanned aerial vehicle control system in embodiment of this invention. 無人航空機101のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an unmanned aircraft 101. FIG. ネットワークカメラ103のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a network camera 103. FIG. 無人航空機制御システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an unmanned aircraft control system. 本発明の実施形態における第1の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 1st control processing in embodiment of this invention. 本発明の実施形態における異常検知処理の一例を示すフローチャートである。It is a flowchart which shows an example of the abnormality detection process in embodiment of this invention. 本発明の実施形態におけるカメラの撮影制御の一例を示す図である。It is a figure which shows an example of the imaging | photography control of the camera in embodiment of this invention. 本発明の実施形態における位置情報の一例を示す図である。It is a figure which shows an example of the positional information in embodiment of this invention. 本発明の実施形態における第2の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 2nd control processing in embodiment of this invention. 本発明の実施形態における落下地点の予測方法の一例を示す図である。It is a figure which shows an example of the prediction method of the fall point in embodiment of this invention. 本発明の実施形態におけるアラート情報の一例を示す図である。It is a figure which shows an example of the alert information in embodiment of this invention. 本発明の実施形態における第3の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 3rd control processing in embodiment of this invention. 本発明の実施形態における無人航空機の誘導方法の一例を示す図である。It is a figure which shows an example of the guidance method of the unmanned aerial vehicle in the embodiment of the present invention. 本発明の実施形態における第4の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 4th control processing in embodiment of this invention. 本発明の実施形態における無人航空機制御システムの処理イメージの一例を示す図である。It is a figure which shows an example of the process image of the unmanned aerial vehicle control system in embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。まず、第一の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the first embodiment will be described.

図1は、本実施形態における無人航空機制御システムのシステム構成を示す図である。   FIG. 1 is a diagram showing a system configuration of an unmanned aerial vehicle control system according to the present embodiment.

本実施形態の無人航空機制御システムは、無人航空機101、プロポ102、ネットワークカメラ103、中継用BOX104、制御用コンピュータ105、および操作卓106が、ネットワーク110や無線LAN(移動体通信網を含む)120を介して通信接続可能に接続されている。尚、図1のシステム構成は一例であり、用途や目的に応じて様々な構成例がある。   The unmanned aerial vehicle control system according to the present embodiment includes an unmanned aircraft 101, a transmitter 102, a network camera 103, a relay BOX 104, a control computer 105, and a console 106, a network 110 and a wireless LAN (including a mobile communication network) 120. It is connected so that communication connection is possible via. Note that the system configuration in FIG. 1 is an example, and there are various configuration examples depending on the application and purpose.

ドローンとも呼ばれる無人航空機101は、プロポ102により遠隔操縦が可能な無人の航空機である。プロポ102からの指示に応じて、複数の回転翼を動作させて飛行する。   An unmanned aerial vehicle 101, also called a drone, is an unmanned aircraft that can be remotely controlled by a prop 102. In response to an instruction from the propo 102, the plurality of rotor blades are operated to fly.

この回転翼の回転数を増減させることで、無人航空機の前進・後退・旋回・ホバリング等を行う。尚、図1に示す無人航空機101の回転翼は4枚であるが、これに限らない。3枚であっても、6枚であっても、8枚であってもよい。   By increasing or decreasing the rotational speed of the rotor blades, the unmanned aircraft moves forward, backward, turns, hovers, and the like. Although the unmanned aircraft 101 shown in FIG. 1 has four rotor blades, the present invention is not limited to this. There may be three, six, or eight.

また、無人航空機101は、無線で飛行するものと有線で飛行するものとがあり、本発明ではどちらの方式で飛行しても構わないものとする。   The unmanned aerial vehicle 101 includes those that fly by radio and those that fly by wire. In the present invention, either method may be used.

有線で飛行する場合は、発着地点130からケーブル131を介して有線接続される。この場合、発着地点130には、無人航空機101に対して給電や通信用の給電部や通信部が設けられる。また、ケーブル131を巻き取ったり、引っ張ったりすることで無人航空機101を移動させるためのケーブル制御部が設けられている。   When flying in a wired manner, a wired connection is made from the arrival / departure point 130 via the cable 131. In this case, the departure / arrival point 130 is provided with a power supply unit and a communication unit for power supply and communication with respect to the unmanned aircraft 101. Further, a cable control unit for moving the unmanned aerial vehicle 101 by winding or pulling the cable 131 is provided.

ケーブル131は、無人航空機101が自由に飛行できるよう十分な長さを有しており、また、リール状に巻き取り可能に制御されることで、無人航空機101の飛行範囲を限定することも可能である。   The cable 131 has a sufficient length so that the unmanned aerial vehicle 101 can freely fly, and can control the flight range of the unmanned aerial vehicle 101 by being controlled so as to be wound up in a reel shape. It is.

プロポ102は、無人航空機101を操縦するための送信機(遠隔操作端末)である。プロポーショナル・システム(比例制御システム)であるので、プロポ102が有する操作部の移動量に比例して、無人航空機101の回転翼の回転数を制御することができる。尚、プロポ102は、いわゆるスマートフォンやタブレット端末といった携帯端末であってもよい。   The transmitter 102 is a transmitter (remote control terminal) for operating the unmanned aerial vehicle 101. Since it is a proportional system (proportional control system), the rotational speed of the rotor blades of the unmanned aerial vehicle 101 can be controlled in proportion to the amount of movement of the operation unit of the prop 102. The propo 102 may be a mobile terminal such as a so-called smartphone or tablet terminal.

ネットワークカメラ103は、無人航空機101を撮影可能な位置に設置され、(無人航空機101がネットワークカメラ103に撮影可能な位置を飛行する。)無人航空機101または他の撮影対象を撮影する。   The network camera 103 is installed at a position where the unmanned aerial vehicle 101 can be photographed, and photographs the unmanned aircraft 101 or other photographing objects (the unmanned aircraft 101 flies over a position where the network camera 103 can photograph).

例えば、ビルの屋上などに設置されお天気カメラとして利用することもできるし、建物の出入り口や街中に設置され監視カメラとして利用することもできる。同一のシステム内に複数台設置し複数台接続することができる。   For example, it can be used as a weather camera installed on the roof of a building, or can be used as a surveillance camera installed at the entrance of a building or in the city. Multiple units can be installed and connected in the same system.

ネットワークカメラ103は、レンズおよびカメラを内蔵し、その撮影方向を可変させるため、カメラのレンズの向きを左右に動かすパン、上下に動かすチルト、そして、望遠にしたり広角にしたりするズームの機能を有し、遠隔地から操作(PTZ制御)できるようになっている。   The network camera 103 incorporates a lens and a camera, and has a pan function for moving the camera lens to the left and right, a tilt for moving the camera up and down, and a zoom function for making it telephoto and wide-angle in order to change the shooting direction. However, it can be operated from a remote location (PTZ control).

中継BOX104は、ネットワークカメラ103や無人航空機101に対して電源を供給したり、操作卓106からの制御信号を伝えたりする機能を有する。   The relay BOX 104 has a function of supplying power to the network camera 103 and the unmanned aircraft 101 and transmitting a control signal from the console 106.

制御用コンピュータ105(情報処理装置)や操作卓106は、ネットワークカメラ103が設置された場所と物理的に距離が離れた遠隔地に設置されていてもよいし、例えば同一の敷地内等の物理的な距離はそれほど離れていない近距離に設置されていてもよい。   The control computer 105 (information processing apparatus) and the console 106 may be installed in a remote place that is physically separated from the place where the network camera 103 is installed. The general distance may be set at a short distance that is not so far away.

また、複数の無人航空機101やネットワークカメラ103をまとめて管理する集中管理センターに設定することも可能である。   It is also possible to set a centralized management center that collectively manages a plurality of unmanned aircraft 101 and network cameras 103.

制御用コンピュータは、複数の無人航空機101やネットワークカメラ103を制御するための操作卓106の制御回線を接続する機器であり、操作卓106は、無人航空機101やネットワークカメラ103を制御するための機器である。   The control computer is a device that connects the control lines of the console 106 for controlling the plurality of unmanned aircraft 101 and the network camera 103, and the console 106 is a device for controlling the unmanned aircraft 101 and the network camera 103. It is.

ネットワーク110および無線LAN120は、本無人航空機制御システムの各機器を通信可能に接続するネットワークであって、各機器は、ネットワークで接続されていても無線LANで接続されていても、移動体通信網で接続されていても本システムは実施可能なものである。   The network 110 and the wireless LAN 120 are networks that connect each device of the unmanned aerial vehicle control system in a communicable manner, and each device is connected to the mobile communication network regardless of whether it is connected by a network or a wireless LAN. This system can be implemented even if connected by.

図2は、無人航空機101のハードウェア構成を示す図である。尚、図2に示す無人航空機101のハードウェア構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 2 is a diagram illustrating a hardware configuration of the unmanned aerial vehicle 101. Note that the hardware configuration of the unmanned aerial vehicle 101 shown in FIG. 2 is an example, and there are various configuration examples depending on the application and purpose.

フライトコントローラ200は無人航空機101の飛行制御を行うためのマイクロコントローラであり、CPU201、ROM202、RAM203、周辺バスインタフェース204(以下、周辺バスI/F204という。)を備えている。   The flight controller 200 is a microcontroller for performing flight control of the unmanned aerial vehicle 101, and includes a CPU 201, a ROM 202, a RAM 203, and a peripheral bus interface 204 (hereinafter referred to as a peripheral bus I / F 204).

CPU201は、システムバスに接続される各デバイスを統括的に制御する。また、ROM202あるいは周辺バスI/F304に接続される外部メモリ280には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステムプログラムが記憶されている。   The CPU 201 comprehensively controls each device connected to the system bus. The external memory 280 connected to the ROM 202 or the peripheral bus I / F 304 stores a basic input / output system (BIOS) that is a control program of the CPU 201 and an operating system program.

また外部メモリ280(記憶手段)には、無人航空機101の実行する機能を実現するために必要な各種プログラム等が記憶されている。RAM203(記憶手段)は、CPU201の主メモリ、ワークエリア等として機能する。   The external memory 280 (storage means) stores various programs and the like necessary for realizing the functions executed by the unmanned aircraft 101. A RAM 203 (storage means) functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

周辺バスI/F204は、各種周辺デバイスと接続するためのインタフェースである。周辺バスI/F204には、PMU210、SIMアダプタ220、無線LAN用BBユニット230、移動体通信用BBユニット240、GPSユニット250、センサ260、GCU270、外部メモリ280が接続されている。   The peripheral bus I / F 204 is an interface for connecting to various peripheral devices. Connected to the peripheral bus I / F 204 are a PMU 210, a SIM adapter 220, a wireless LAN BB unit 230, a mobile communication BB unit 240, a GPS unit 250, a sensor 260, a GCU 270, and an external memory 280.

PMU210はパワーマネジメントユニットであり、無人航空機101が備えるバッテリからESC211への電源供給を制御することができる。ESC211は、エレクトロニックスピードコントローラであり、ESC211に接続されるモータ212の回転数を制御することができる。ESC211によってモータ212を回転させることで、モータ212に接続されるプロペラ213(回転翼)を回転させる。   The PMU 210 is a power management unit and can control power supply from the battery included in the unmanned aircraft 101 to the ESC 211. The ESC 211 is an electronic speed controller and can control the rotation speed of the motor 212 connected to the ESC 211. By rotating the motor 212 using the ESC 211, the propeller 213 (rotary blade) connected to the motor 212 is rotated.

尚、ESC211、モータ212、プロペラ213のセットは、プロペラ213の数に応じて複数備えられている。例えば、クアッドコプターであれば、プロペラ213の数は4枚であるので、このセットが4つ必要となる。   Note that a plurality of sets of ESCs 211, motors 212, and propellers 213 are provided according to the number of propellers 213. For example, in the case of a quadcopter, the number of propellers 213 is four, so four sets are required.

SIMアダプタ220は、SIMカード221を挿入するためのカードアダプタである。SIMカード221の種類は特に問わない。移動体通信網を提供する通信事業者に応じたSIMカード221であればよい。   The SIM adapter 220 is a card adapter for inserting the SIM card 221. The type of the SIM card 221 is not particularly limited. Any SIM card 221 may be used depending on the carrier that provides the mobile communication network.

無線LAN用BBユニット230は、無線LANを介して通信を行うためのベースバンドユニットである。無線LAN用BBユニット230は、送信したいデータや信号からベースバンド信号を生成して変復調回路へ送出することができる。更に、受信したベースバンド信号から元のデータや信号を得ることができる。   The wireless LAN BB unit 230 is a baseband unit for performing communication via a wireless LAN. The wireless LAN BB unit 230 can generate a baseband signal from data or signals to be transmitted and send it to the modem circuit. Furthermore, original data and signals can be obtained from the received baseband signal.

また、無線LAN用RFユニット231は、無線LANを介して通信を行うためのRF(Radio Frequency)ユニットである。無線LAN用RFユニット231は、無線LAN用BBユニット230から送出されたベースバンド信号を無線LANの周波数帯に変調してアンテナから送信することができる。更に、無線LANの周波数帯の信号を受信すると、これをベースバンド信号に復調することができる。   The wireless LAN RF unit 231 is an RF (Radio Frequency) unit for performing communication via a wireless LAN. The wireless LAN RF unit 231 can modulate the baseband signal transmitted from the wireless LAN BB unit 230 into the frequency band of the wireless LAN and transmit it from the antenna. Furthermore, when a signal in the wireless LAN frequency band is received, it can be demodulated into a baseband signal.

移動体通信用BBユニット240は、移動体通信網を介して通信を行うためのベースバンドユニットである。移動体通信用BBユニット240は、送信したいデータや信号からベースバンド信号を生成して変復調回路へ送出することができる。更に、受信したベースバンド信号から元のデータや信号を得ることができる。   The mobile communication BB unit 240 is a baseband unit for performing communication via a mobile communication network. The mobile communication BB unit 240 can generate a baseband signal from data or signals to be transmitted and send it to the modem circuit. Furthermore, original data and signals can be obtained from the received baseband signal.

また、移動体通信用RFユニット241は、移動体通信網を介して通信を行うためのRF(Radio Frequency)ユニットである。移動体通信用RFユニット241は、移動体通信用BBユニット240から送出されたベースバンド信号を移動体通信網の周波数帯に変調してアンテナから送信することができる。更に、移動体通信網の周波数帯の信号を受信すると、これをベースバンド信号に復調することができる。   The mobile communication RF unit 241 is an RF (Radio Frequency) unit for performing communication via a mobile communication network. The mobile communication RF unit 241 can modulate the baseband signal transmitted from the mobile communication BB unit 240 into the frequency band of the mobile communication network and transmit it from the antenna. Further, when a signal in the frequency band of the mobile communication network is received, it can be demodulated into a baseband signal.

GPSユニット250は、グローバルポジショニングシステムにより、無人航空機101の現在位置を取得することの可能な受信機である。GPSユニット250は、GPS衛星からの信号を受信し、現在位置を推定することができる。   The GPS unit 250 is a receiver that can acquire the current position of the unmanned aerial vehicle 101 using a global positioning system. The GPS unit 250 can receive a signal from a GPS satellite and estimate the current position.

センサ260は、無人航空機101の傾き、向き、速度や周りの環境を計測するためのセンサである。無人航空機101はセンサ260として、ジャイロセンサ、加速度センサ、気圧センサ、磁気センサ、超音波センサ等を備えている。これらのセンサから取得したデータに基づいて、CPU201が無人航空機101の姿勢や移動を制御する。   The sensor 260 is a sensor for measuring the tilt, direction, speed, and surrounding environment of the unmanned aircraft 101. The unmanned aircraft 101 includes a gyro sensor, an acceleration sensor, an atmospheric pressure sensor, a magnetic sensor, an ultrasonic sensor, and the like as the sensor 260. Based on the data acquired from these sensors, the CPU 201 controls the attitude and movement of the unmanned aerial vehicle 101.

GCU270はジンバルコントロールユニットであり、カメラ271とジンバル272の動作を制御するためのユニットである。無人航空機101が飛行することにより機体に振動が発生したり、機体が不安定になったりするため、カメラ271で撮像した際にブレが発生しないよう、ジンバル272によって無人航空機101の振動を吸収し水平を維持する。また、ジンバル272によってカメラ271の遠隔操作を行うことも可能である。   The GCU 270 is a gimbal control unit and is a unit for controlling the operations of the camera 271 and the gimbal 272. The unmanned aerial vehicle 101 will vibrate or become unstable when the unmanned aerial vehicle 101 flies. Therefore, the gimbal 272 absorbs the vibration of the unmanned aerial vehicle 101 so that the camera 271 does not shake when captured by the camera 271. Maintain level. Further, the camera 271 can be remotely operated by the gimbal 272.

本発明の無人航空機101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ280に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ280に格納されている。   Various programs and the like used by the unmanned aerial vehicle 101 of the present invention to execute various processes, which will be described later, are recorded in the external memory 280 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. . Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 280.

図3は、ネットワークカメラ102のハードウェアの構成を示す構成図である。   FIG. 3 is a configuration diagram illustrating a hardware configuration of the network camera 102.

CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。   The CPU 301 comprehensively controls each device and controller connected to the system bus 304.

また、ROM302あるいは外部メモリ305には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。   Further, the ROM 302 or the external memory 305 is necessary for realizing the functions executed by the BIOS (Basic Input / Output System), the operating system program (hereinafter referred to as OS), and the image processing server 108, which are control programs of the CPU 301. Various programs to be described later are stored. A RAM 303 functions as a main memory, work area, and the like for the CPU 301.

CPU301は、処理の実行に際して必要なプログラム等をRAM303にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 301 implements various operations by loading a program or the like necessary for execution of processing into the RAM 303 and executing the program.

メモリコントローラ(MC)306は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ、画像データ等を記憶するハードディスク(HD)やPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリやスマートメディア(登録商標)等の外部メモリ305へのアクセスを制御する。   The memory controller (MC) 306 is a compact connected via an adapter to a hard disk (HD) or PCMCIA card slot for storing a boot program, various applications, font data, user files, editing files, various data, image data, and the like. Controls access to an external memory 305 such as a flash (registered trademark) memory or a smart media (registered trademark).

カメラ部307は、画像処理部308と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部308に対して出力する。   The camera unit 307 is connected to the image processing unit 308 and performs photoelectric conversion on the light obtained through the lens directed toward the monitoring target by a light receiving cell such as a CCD or CMOS, and then outputs an RGB signal. Or a complementary color signal is output to the image processing unit 308.

画像処理部308は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行い、更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成し、YC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとして外部メモリ305へ一時保管される。   The image processing unit 308 performs white balance adjustment, gamma processing, and sharpness processing based on the RGB signal and the color collection signal, and further performs YC signal processing to generate a luminance signal Y and a chroma signal (hereinafter referred to as YC signal). Then, the YC signal is compressed in a predetermined compression format (for example, JPEG format or Motion JPEG format), and the compressed data is temporarily stored in the external memory 305 as image data.

通信I/Fコントローラ(通信I/FC)309は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行しており、外部メモリ305に記憶された画像データは、通信I/Fコントローラ309によって外部機器へ送信される。   A communication I / F controller (communication I / FC) 309 connects and communicates with an external device via a network, executes communication control processing on the network, and stores an image stored in the external memory 305. Data is transmitted to the external device by the communication I / F controller 309.

図4は、無人航空機制御システムの機能構成の一例を示す図である。制御用コンピュータ105(情報処理装置)の有する機能として説明する。   FIG. 4 is a diagram illustrating an example of a functional configuration of the unmanned aerial vehicle control system. The functions of the control computer 105 (information processing apparatus) will be described.

無人航空機制御システムは、異常検知部411、無人航空機撮影制御部412、落下地点取得部413、アラート出力部414、無人航空機制御部415、パラシュート検知部416、およびケーブル牽引部417の各機能を有する。   The unmanned aircraft control system has functions of an abnormality detection unit 411, an unmanned aircraft shooting control unit 412, a fall point acquisition unit 413, an alert output unit 414, an unmanned aircraft control unit 415, a parachute detection unit 416, and a cable pulling unit 417. .

異常検知部411は、無人航空機の異常を検知する。異常を検知すると、その時の状況を後から確認できるよう、無人航空機撮影制御部412が、無人航空機の位置を特定し、無人航空機の撮影を行う。   The abnormality detection unit 411 detects an abnormality of the unmanned aircraft. When an abnormality is detected, the unmanned aerial photography control unit 412 identifies the position of the unmanned aircraft and photographs the unmanned aircraft so that the situation at that time can be confirmed later.

落下地点取得部413は、異常検知部413により異常が検知されると、最悪の事態に備え、落下する場合には、どの地域に落下するのかを取得する。   When an abnormality is detected by the abnormality detection unit 413, the fall point acquisition unit 413 acquires in which region the region falls when it falls in preparation for the worst situation.

アラート出力部414は、落下地点取得部413が取得した落下地点に応じたアラートを決定し出力する制御を行う。危険な地域に落下する場合は大きな音で警告したり、山間部などに落下する場合には、後から回収しやすいよう、ライトを目立つように点灯(点滅)させる。   The alert output unit 414 performs control to determine and output an alert corresponding to the falling point acquired by the falling point acquisition unit 413. If you fall into a dangerous area, you will be warned with a loud sound, and if you fall into a mountainous area, the lights will turn on (blink) prominently so that you can easily collect them later.

無人航空機制御部415は、落下する場合に、安全地帯に落下させるべく、プロペラの出力を制御することなどで安全な場所に誘導できるよう無人航空機を制御する機能を有する。   The unmanned aerial vehicle control unit 415 has a function of controlling the unmanned aerial vehicle so that the unmanned aircraft can be guided to a safe place by controlling the output of the propeller so that the unmanned aircraft control unit 415 is dropped in the safety zone.

パラシュート検知部416は、落下にともないパラシュート(落下傘)が開いているかどうかを検知する。第4の制御処理では、パラシュートが開いていることを条件に、ケーブルの牽引処理を開始することもできる。   The parachute detection unit 416 detects whether or not the parachute (parachute) is open as it falls. In the fourth control process, the cable pulling process can be started on the condition that the parachute is open.

ケーブル牽引部417は、無人航空機が落下する場合に、接続されたケーブルの長さを調整することで、安全地帯に落下させるためにケーブルの牽引を行う機能を有する。   The cable pulling unit 417 has a function of pulling the cable in order to drop it in the safety zone by adjusting the length of the connected cable when the unmanned aircraft drops.

図5は、本発明の実施形態における第1の制御処理の一例を示すフローチャートである。   FIG. 5 is a flowchart illustrating an example of the first control process according to the embodiment of the present invention.

第1の制御処理は、 無人航空機に異常が発生すると、当該無人航空機を撮影可能なネットワークカメラが無人航空機を撮影するよう制御するものである。   In the first control process, when an abnormality occurs in the unmanned aircraft, the network camera capable of photographing the unmanned aircraft is controlled to photograph the unmanned aircraft.

主に制御用コンピュータ105のCPUによって処理される。ステップS501で、無心航空機の異常検知処理が行われ、異常が検知されるまで処理をループする。   Processing is mainly performed by the CPU of the control computer 105. In step S501, the abnormality detection process for the uncentered aircraft is performed, and the process loops until an abnormality is detected.

ステップS502で異常が検知されると、ステップS503に進み、異常を検知した無人航空機の位置情報を位置情報取得手段が取得しステップS504に進む。   If an abnormality is detected in step S502, the process proceeds to step S503, where the position information acquisition unit acquires the position information of the unmanned aircraft that detected the abnormality, and the process proceeds to step S504.

ステップS504では、設置されるネットワークカメラの中から当該異常を発生した無人航空機を撮影可能なネットワークカメラをネットワークカメラ特定手段が特定する。無人航空機の位置情報とネットワークカメラが設置された位置情報とから、無人航空機を撮影可能なネットワークカメラを特定する。   In step S504, the network camera specifying unit specifies a network camera capable of shooting the unmanned aerial vehicle in which the abnormality has occurred from the installed network cameras. A network camera capable of shooting the unmanned aerial vehicle is identified from the position information of the unmanned aircraft and the position information where the network camera is installed.

なお、ネットワークカメラが予め無人航空機を撮影可能に設置されている場合などは、当該ネットワークカメラが撮影可能なネットワークカメラとなる。   In addition, when the network camera is previously installed so that the unmanned aircraft can be photographed, the network camera is a network camera capable of photographing.

ステップS505で、異常のが検知された無人航空機を撮影可能なネットワークカメラがあると判定された場合には、ステップS506に進み、一方、撮影可能なネットワークカメラがないと判定された場合には、ステップS507に進み処理を終了する。   If it is determined in step S505 that there is a network camera capable of capturing an unmanned aerial vehicle in which an abnormality has been detected, the process proceeds to step S506, whereas if it is determined that there is no network camera capable of capturing, It progresses to step S507 and a process is complete | finished.

ステップS506では、撮影可能なネットワークカメラに無人航空機を撮影させる。撮影可能なネットワークカメラが複数台数ある場合には、複数台に撮影させるようにしてもよいし、一番近いネットワークカメラに撮影させるようにしてもよい。   In step S506, the unmanned aircraft is photographed by a network camera capable of photographing. When there are a plurality of network cameras that can be photographed, a plurality of network cameras may be photographed, or the nearest network camera may be photographed.

ステップS507では、撮影できなくても、一番近いカメラに撮影させるようにするが、本処理を省略しても構わない。   In step S507, even if shooting is not possible, the closest camera is allowed to shoot, but this processing may be omitted.

図6は、本発明の実施形態における異常検知処理の一例を示すフローチャートである。   FIG. 6 is a flowchart showing an example of the abnormality detection process in the embodiment of the present invention.

本処理は、無人航空機が飛行を初めることに伴って処理が開始される。無人航空機によって処理されてもよいし、制御用コンピュータ105によって処理されてもよい。   This process is started as the unmanned aircraft begins to fly. It may be processed by an unmanned aerial vehicle or may be processed by the control computer 105.

ステップS601では飛行が終了するまで繰り返し処理が行われる。ステップS602では、無人航空機の角度センサが正常かどうかの判定を行い、異常であれば、ステップS603に進み異常フラグをセットし、ステップS604に進む。異常フラグは不図示のテーブルによって管理してもよいし、メモリ上に一時的に記憶するようにしてもよい(他の異常フラグも同様)。   In step S601, the process is repeated until the flight is completed. In step S602, it is determined whether the angle sensor of the unmanned aircraft is normal. If it is abnormal, the process proceeds to step S603, an abnormal flag is set, and the process proceeds to step S604. The abnormality flag may be managed by a table (not shown) or may be temporarily stored in a memory (the same applies to other abnormality flags).

ステップS604では、無人航空機のプロペラが正常かどうかの判定を行い、異常であれば、ステップS605に進み異常フラグをセットし、ステップS606に進む。なお、異常であるかどうかは、異常の信号を受信するようにしてもよいし、所定数(例えば2基以上)停止している場合を異常としてもよい。   In step S604, it is determined whether the propeller of the unmanned aircraft is normal. If it is abnormal, the process proceeds to step S605, where an abnormality flag is set, and the process proceeds to step S606. Whether or not it is abnormal may be determined by receiving an abnormal signal, or may be abnormal when a predetermined number (for example, two or more) are stopped.

ステップS606では、無人航空機の高度が正常かどうかを判定し、異常であればステップS607に進み異常フラグをセットし、ステップS608に進む。なお、異常であるかどうかは、高度が思い通りにならず高度の低下が継続する場合を異常としてもよい。   In step S606, it is determined whether the altitude of the unmanned aircraft is normal. If the altitude is abnormal, the process proceeds to step S607, where an abnormality flag is set, and the process proceeds to step S608. Whether or not there is an abnormality may be determined as an abnormality when the altitude does not become as expected and the altitude continues to decrease.

ステップS608では、異常フラグが所定以上(例えば2つ以上)あるかどうかの判定を行い、所定以上の異常フラグがあった場合は、ステップS609に進み、無人航空機を異常として認識し、無人航空機制御システムに通知する。   In step S608, it is determined whether or not the abnormality flag is greater than or equal to a predetermined value (for example, two or more). If there is an abnormality flag greater than or equal to the predetermined value, the process proceeds to step S609 to recognize the unmanned aircraft as an abnormality and Notify the system.

なお、異常の検知方法はこれに限ったものではなく、無人航空機からの異常アラートを受信することにより判定しもよいし、無人航空機を撮影し画像処理の結果異常と判定してもよいし、また、ユーザにより異常である旨の入力を受付けるようにしてもよい。   The abnormality detection method is not limited to this, and may be determined by receiving an abnormality alert from an unmanned aerial vehicle, or may be determined to be abnormal as a result of image processing by shooting an unmanned aircraft, Moreover, you may make it receive the input to the effect of abnormality by a user.

図7は、本発明の実施形態におけるカメラの撮影制御の一例を示す図である。   FIG. 7 is a diagram illustrating an example of shooting control of the camera according to the embodiment of the present invention.

本図は、ドローン101とネットワークカメラ103を上からと横からみた図を利用して、ネットワークカメラ103がドローン101を撮影するときの距離の算出方法を説明する。   This figure explains a method for calculating a distance when the network camera 103 captures the drone 101 using the top view and the side view of the drone 101 and the network camera 103.

無人航空機制御システムは、まず、ドローン101の位置情報およびネットワークカメラ103の位置情報を取得する。それぞれの位置情報は、図8に示すようなテーブルに記憶されているものを利用する。   The unmanned aerial vehicle control system first acquires the position information of the drone 101 and the position information of the network camera 103. Each position information is stored in a table as shown in FIG.

図8は、本発明の実施形態における位置情報の一例を示す図である。   FIG. 8 is a diagram showing an example of position information in the embodiment of the present invention.

位置情報テーブルは、ドローンの位置情報テーブル800およびネットワークカメラの位置情報テーブル810を記憶している。   The position information table stores a drone position information table 800 and a network camera position information table 810.

ドローンの位置情報テーブル800は、ドローンNo801、緯度802、経度803、高度804、時刻805、および備考806の情報を記憶している。   The drone position information table 800 stores information of drone No 801, latitude 802, longitude 803, altitude 804, time 805, and remarks 806.

ドローンNo801は、無人航空機を一意に識別可能に付与されたものであり、緯度802、経度803、高度804は、無人航空機がGPSなどによって取得した情報が記録され、時刻805は、位置情報を取得した時刻が記録される。   Drone No. 801 is assigned so that an unmanned aircraft can be uniquely identified. Latitude 802, longitude 803, and altitude 804 record information acquired by the unmanned aircraft by GPS or the like, and time 805 acquires position information. The recorded time is recorded.

備考806には、備考が記録される。「1秒後」とは、ドローンNoがNo.1である無人航空機の位置情報が2つあるので、その時間差が記録されている。   Remarks 806 records remarks. “After 1 second” means that the drone No. Since there is two position information of the unmanned aircraft which is 1, the time difference is recorded.

「電源OFF」とは、ドローンNoがNo.2である無人航空機の位置情報が取得されていないために電源がOFFであると判定される。これら備考806は、システムが自動で入力するようにしてもよいし、ユーザにより手動で入力されるようにしてもよい。   “Power OFF” means that the drone No. Since the position information of the unmanned aircraft that is 2 is not acquired, it is determined that the power is OFF. These remarks 806 may be input automatically by the system, or may be input manually by the user.

ネットワークカメラの位置情報テーブル810は、カメラNo811、経度812、緯度813、高度814が記憶されている。これらの情報はネットワークカメラが設置された時に入力されるものであるが、移動式のネットワークカメラなどの場合は、設置位置に応じて更新されるようにしてもよい。   The network camera position information table 810 stores camera No 811, longitude 812, latitude 813, and altitude 814. These pieces of information are input when the network camera is installed. However, in the case of a mobile network camera or the like, it may be updated according to the installation position.

カメラNo811は、ネットワークカメラを一意に識別可能に命名されたものであり、緯度812、経度813、および高度814は、ネットワークカメラが設置された位置情報が記録されている。図8の説明に戻る。   The camera No. 811 is named so that the network camera can be uniquely identified, and the latitude 812, the longitude 813, and the altitude 814 store the position information where the network camera is installed. Returning to the description of FIG.

本実施例では、緯度1秒は30.86m、経度1秒は25.37mとして演算し、ドローンNo「No.1」とカメラNo「No.1」を利用するものとして説明する。   In this embodiment, it is assumed that latitude 1 second is calculated as 30.86 m, longitude 1 second is calculated as 25.37 m, and drone No “No. 1” and camera No “No. 1” are used.

上から見た図で、ドローンNo「No.1」とカメラNo「No.1」を比較すると、経度で+1秒の差、緯度で−1秒の差があるので、高度で2.34mの差がある。   When the drone No. “No. 1” and the camera No. “No. 1” are compared with each other as seen from above, there is a difference of +1 second in longitude and a difference of −1 second in latitude. There is a difference.

パン角度は、tanθ=25.37m/30.86m θ=39.4°となるので、パン角度を39.4°左旋回すればドローンが撮影できることになる。   Since the pan angle is tan θ = 25.37 m / 30.86 mθ = 39.4 °, if the pan angle is turned 39.4 ° to the left, the drone can be photographed.

また、ドローン101とネットワークカメラ103の距離は、
sin39.4°=38.86m/A A=40.01mが算出される。
The distance between the drone 101 and the network camera 103 is
sin 39.4 ° = 38.86 m / A A = 40.01 m is calculated.

次に横からみた図を利用して、撮影距離とチルト角度の算出方法について説明する。   Next, a method for calculating the shooting distance and the tilt angle will be described with reference to a side view.

ドローン101とネットワークカメラの高度の差が2.34mなので、
tanθ=2.34m/40.01m よってθ=3.45°となり、ネットワークカメラのチルト角度を3.45°下向き旋回すればドローン101を撮影することができる。
The difference in altitude between drone 101 and the network camera is 2.34m,
tan θ = 2.34 m / 40.01 m Therefore, θ = 3.45 °, and the drone 101 can be photographed by turning the tilt angle of the network camera downward by 3.45 °.

次にドローン101とネットワークカメラ103の撮影距離を算出する方法について説明する。   Next, a method for calculating the shooting distance between the drone 101 and the network camera 103 will be described.

cosθ=40.01m/B よってB=40.09mとなり、ドローン101とネットワークカメラ103のよりは40.09mなので、ネットワークカメラのフォーカス位置を40.09mに移動させる。具体的には、40.09mに相当する電圧を印加してズームを動かす。   cos θ = 40.01 m / B Therefore, B = 40.09 m, which is 40.09 m than that of the drone 101 and the network camera 103, and the focus position of the network camera is moved to 40.09 m. Specifically, the zoom is moved by applying a voltage corresponding to 40.09 m.

なお、ネットワークカメラによるドローンの撮影手法はこれに限ったものではなく、画像処理にてドローンを認識し、認識したドローンにフォーカスを合わせるようにしてもよい。図15を利用して、実際にネットワークカメラがドローンを撮影するイメージを説明する。   Note that the drone shooting method using the network camera is not limited to this, and the drone may be recognized by image processing, and the recognized drone may be focused. An image in which a network camera actually captures a drone will be described with reference to FIG.

図15は、本発明の実施形態における無人航空機制御システムの処理イメージの一例を示す図である。   FIG. 15 is a diagram illustrating an example of a processing image of the unmanned aerial vehicle control system according to the embodiment of the present invention.

ドローン1500から異常を検知すると、ドローン1500を撮影可能なネットワークカメラ1501や1511が、撮影範囲1502や1502でドローン1500を撮影するように制御する。   When an abnormality is detected from the drone 1500, the network cameras 1501 and 1511 capable of photographing the drone 1500 are controlled so as to photograph the drone 1500 within the photographing ranges 1502 and 1502.

また、撮影可能でないネットワークカメラ1521であっても、ドローン1500の方向1522を撮影するように制御するようになっている。   Further, even the network camera 1521 that cannot be photographed is controlled to photograph the direction 1522 of the drone 1500.

図9は、本発明の実施形態における第2の制御処理の一例を示すフローチャートである。   FIG. 9 is a flowchart showing an example of the second control process in the embodiment of the present invention.

第2の制御処理は、無人航空機の異常を検知すると、落下地点に応じて異なるアラートを出力するように制御するものである。   In the second control process, when an abnormality of the unmanned aircraft is detected, control is performed so that a different alert is output according to the falling point.

主に制御用コンピュータ105のCPUによって処理される。ステップS901で、無心航空機の異常検知処理が行われ、異常が検知されるまで処理をループする。   Processing is mainly performed by the CPU of the control computer 105. In step S901, the abnormality detection process for the uncentered aircraft is performed, and the process loops until an abnormality is detected.

ステップS902で異常が検知されると、ステップS903に進み、パラシュート132が開かれる。なお、パラシュート132が開かれる処理は必須な処理ではない。   If an abnormality is detected in step S902, the process proceeds to step S903, and the parachute 132 is opened. Note that the process of opening the parachute 132 is not an essential process.

ステップS904では、無人航空機の落下地点を取得する。詳細については、図10を利用して説明する。   In step S904, the falling point of the unmanned aircraft is acquired. Details will be described with reference to FIG.

ステップS905で、アラート決定手段は、落下地点に応じたアラートの種類およびレベルを判定する。判定には、図11のアラート情報が利用される。アラート情報について説明する。   In step S905, the alert determination unit determines the type and level of the alert corresponding to the drop point. For the determination, the alert information of FIG. 11 is used. The alert information will be described.

図11は、本発明の実施形態におけるアラート情報の一例を示す図である。   FIG. 11 is a diagram showing an example of alert information in the embodiment of the present invention.

アラート情報記憶手段は、アラートの種類1111、危険レベル情報(危険情報)である、危険地帯情報1112、一般地帯情報1113、および安全地帯情報1114の情報を有する。これらの情報をレベル1〜レベル3として管理する。危険レベルはこれに限ったものではなく、レベル4・5・・とより多くのレベルを設定することも可能である。   The alert information storage means includes information of alert type 1111, danger level information (danger information), danger zone information 1112, general zone information 1113, and safety zone information 1114. These pieces of information are managed as level 1 to level 3. The danger level is not limited to this, and it is possible to set more levels such as levels 4, 5,.

無人航空機の落下地点に応じて、落下地点の危険レベルが決定される。例えば、落下地点が東京都港区であればレベル1、東京湾内であればレベル2、自社の敷地内であればレベル3という具体に設定することができる。   The danger level of the falling point is determined according to the falling point of the unmanned aircraft. For example, level 1 can be set if the fall point is Minato-ku, Tokyo, level 2 if it is in Tokyo Bay, and level 3 if it is in the company's premises.

また、アラートの種類1111には、アラートの種類として、音による警告音、光による警告灯、および音楽などの種類を設定することができる。   In addition, the alert type 1111 can be set as a type of alert, such as a warning sound by sound, a warning light by light, and music.

また、アラートの種類やレベルを組み合わせて設定することも可能であり、レベル1の地域は警報音が大で警告灯が赤といった複数のアラートを通知することも可能である。これにより、大音量で落下地点にいる人に注意喚起させたり、警告灯を目立たせることで後から無人航空機を回収する際に目立たせたりすることが可能となる。図9の説明に戻る。   It is also possible to set a combination of alert types and levels. In the level 1 area, it is also possible to notify a plurality of alerts such as a high warning sound and a red warning light. As a result, it is possible to alert a person who is at a falling point with a high volume, or to make the warning light stand out and make it stand out when collecting the unmanned aircraft later. Returning to the description of FIG.

ステップS905では、取得したアラートの種類とレベルの判定を行い、アラート出力制御手段は、レベル1であればステップS906に進み、レベル2であればステップS907に進み、レベル3であればステップS908に進み、それぞれの設定に応じたアラートを出力し、処理を終了する。   In step S905, the type and level of the acquired alert are determined, and the alert output control means proceeds to step S906 if it is level 1, proceeds to step S907 if it is level 2, and proceeds to step S908 if it is level 3. Proceed, output an alert according to each setting, and end the process.

図10は、本発明の実施形態における落下地点の予測方法の一例を示す図である。   FIG. 10 is a diagram illustrating an example of a falling point prediction method according to the embodiment of the present invention.

異常の検知されたドローンはドローンNo801がNo.1の無人航空機であるものとして<横から見た図>を利用して説明する。   Drone No. 801 is No. A description will be given by using <side view> as one unmanned aerial vehicle.

12:00の位置情報と、1秒後の位置情報を比較すると、緯度の差が−0.08秒、経度の差は0、高度の差は−2.0mとなっている。   Comparing the position information at 12:00 with the position information one second later, the difference in latitude is -0.08 seconds, the difference in longitude is 0, and the difference in altitude is -2.0 m.

このことから方向は北から南に向かって落下していることがわかり、また、高度が−2.0m変化していることから(緯度1秒は30.86m、経度1秒は25.37mで演算すると)、落下角度は以下のように算出できる。   From this, it can be seen that the direction is falling from north to south, and the altitude has changed by -2.0 m (latitude 1 second is 30.86 m, longitude 1 second is 25.37 m). When calculated, the drop angle can be calculated as follows:

tanθ=2.0m/2.47mより39°
これを元に、ドローンの落下時間および落下地点について予想すると、高度情報から1秒間に2.0m落下し、撮影エリアの標高が5.0mであった場合、ドローンが地面へ到着する時間を計算すると以下のように3.67秒後ということになる。
tan θ = 2.0 m / 2.47 m to 39 °
Based on this, if the drone's falling time and point are predicted, the altitude information will drop 2.0m per second, and if the altitude of the shooting area is 5.0m, the drone's time to reach the ground is calculated. Then it will be 3.67 seconds later as follows.

(12.34m−5.0m)/2.0m=3.67秒
これにより、ドローンの落下位置は、緯度「35°37′31.75″」経度「139°44′25.45″」高度「5.0m」と予想される。この落下地点の位置情報を利用して、危険レベル情報が決定される。
(12.34m-5.0m) /2.0m=3.67 seconds This allows the drone to fall at the latitude “35 ° 37'31.75 ″” longitude “139 ° 44′25.45 ″” altitude. Expected to be “5.0m”. The danger level information is determined using the position information of the falling point.

なお、パラシュートが利用されるときは、この限りではなく、風向きや風速情報などを外部から入手することで落下地点を予測することができる。   In addition, when a parachute is utilized, not only this but a fall point can be estimated by acquiring wind direction, wind speed information, etc. from the outside.

また、実際にドローンの落下状況から落下地点を予測するのではなく、天気予報や降灰の範囲の提供を行う降灰予報などの情報を利用することも可能である。   In addition, it is also possible to use information such as a weather forecast and a ash fall forecast that provides a range of ash fall instead of actually predicting the fall point from the drone fall situation.

また、高度や風速などに応じた過去の落下情報を蓄積しておき、状況の一番近い履歴から落下地点を予測することも可能である。   It is also possible to accumulate past fall information according to altitude, wind speed, etc., and predict the fall point from the history closest to the situation.

図12は、本発明の実施形態における第3の制御処理の一例を示すフローチャートである。   FIG. 12 is a flowchart illustrating an example of a third control process according to the embodiment of the present invention.

第3の制御処理は、無人航空機の異常を検知すると、落下地点が危険な場合には、安全地帯に誘導するように制御するようになっている。   In the third control process, when an abnormality of the unmanned aircraft is detected, if the falling point is dangerous, control is performed so as to guide to a safe zone.

主に制御用コンピュータ105のCPUによって処理される。ステップS1201で、無心航空機の異常検知処理が行われ、異常が検知されるまで処理をループする。   Processing is mainly performed by the CPU of the control computer 105. In step S1201, an abnormality detection process for the uncentered aircraft is performed, and the process loops until an abnormality is detected.

ステップS1202で異常が検知されると、ステップS1203に進み、パラシュート132が開かれる。なお、パラシュート132が開かれる処理は必須な処理ではない。   If an abnormality is detected in step S1202, the process proceeds to step S1203 and the parachute 132 is opened. Note that the process of opening the parachute 132 is not an essential process.

ステップS1204で落下地点の取得を行い、ステップS1205で落下地点が危険地帯かどうかの判定を危険地帯判定手段が行う。危険地帯かどうかは、取得した落下地点と図11の危険レベル情報とを利用して判定する。   In step S1204, the fall point is acquired, and in step S1205, the danger zone determination unit determines whether the fall point is a danger zone. Whether it is a danger zone is determined using the acquired fall point and the danger level information of FIG.

ステップS1205で落下地点が危険地帯かどうかの判定を行い、危険地帯でない場合には、そのまま処理を終了し、危険地帯であった場合には、ステップS1206で安全地帯に無人航空機を安全地帯誘導手段が誘導して処理を終了する。安全地帯に誘導する方法については、図13を利用して説明する。   In step S1205, it is determined whether or not the falling point is a dangerous zone. If it is not a dangerous zone, the process is terminated. If it is a dangerous zone, an unmanned aircraft is guided to the safety zone in step S1206. Guides and ends the process. A method of guiding to the safe zone will be described with reference to FIG.

図13は、本発明の実施形態における無人航空機の誘導方法の一例を示す図である。   FIG. 13 is a diagram illustrating an example of a method for guiding an unmanned aerial vehicle according to an embodiment of the present invention.

無人航空機制御システムでは、無人航空機に対してあらかじめ落下してもよい地域(安全地帯や危険地帯でない地域)を設定しておく。図の例では、緯度「35°37′30.75″」経度「139°44′24.45″」が落下してもよい地域の中心座標として設定されている。   In the unmanned aerial vehicle control system, an area (an area that is not a safety zone or a danger zone) that may fall in advance with respect to the unmanned aircraft is set. In the example of the figure, the latitude “35 ° 37′30.75 ″” and the longitude “139 ° 44′24.45 ″” are set as the center coordinates of the area where the drop may occur.

図10で取得した落下予想地点(緯度「35°37′31.75″」経度「139°44′25.45″」高度「5.0m」)と、落下エリアの差を求めると、緯度−1.00秒、経度−1.00秒となっており、緯度1秒は30.86m、経度1秒は25.37mで演算すると、緯度−38.86m、経度−25.37mとなる。   The difference between the predicted fall point (latitude “35 ° 37′31.75 ″” longitude “139 ° 44′25.45 ″” altitude “5.0 m”) acquired in FIG. When calculating with 1.00 second and longitude minus 1.00 seconds, latitude 1 second is 30.86 m, and longitude 1 second is 25.37 m, latitude −38.86 m and longitude −25.37 m are obtained.

目的地点への角度は、tanθ=25.37m/30.86mで算出され、θ=39.42°となる。   The angle to the destination point is calculated as tan θ = 25.37 m / 30.86 m, and θ = 39.42 °.

この角度で落下させると安全地帯に落下させることが可能となるので、稼働可能なドローンのプロペラの出力を可変させて落下エリアに向かわせる処理を行う。プロペラの出力を変化させることでドローンの姿勢が変化し、39.42°に相当する信仰角度にすることが可能となる。   If it is dropped at this angle, it can be dropped into a safe zone, so that the output of the operable drone propeller is varied to be directed to the drop area. By changing the output of the propeller, the drone's posture changes, and a faith angle corresponding to 39.42 ° can be obtained.

ドローン1300を利用して説明する。ドローン1300には、プロペラ1301〜プロペラ1304の4枚のプロペラを装備しているものとする。   This will be described using the drone 1300. It is assumed that the drone 1300 is equipped with four propellers, a propeller 1301 to a propeller 1304.

プロペラ1302を回転させることで出力を上げると、ドローンの姿勢が傾き、矢印1305の方向に進む。このとき、プロペラ1301とプロペラ1304の出力が同じ場合、45°の角度で移動することになる。   When the output is increased by rotating the propeller 1302, the drone's posture is tilted and proceeds in the direction of the arrow 1305. At this time, when the outputs of the propeller 1301 and the propeller 1304 are the same, the propeller 1301 moves at an angle of 45 °.

実施例のように39.42°の角度で移動させたい場合は、プロペラ1301とプロペラ1304の出力具合を調整する。   When it is desired to move at an angle of 39.42 ° as in the embodiment, the output level of the propeller 1301 and the propeller 1304 is adjusted.

プロペラ1301の出力を100とした場合、プロペラ1304の出力を78にするとドローン本体の姿勢が傾き、39.42°の角度で移動する。なお、本実施形態は、プロペラが正常に動作する場合に処理されるものとする。   When the output of the propeller 1301 is 100, when the output of the propeller 1304 is set to 78, the attitude of the drone body is inclined and moves at an angle of 39.42 °. Note that this embodiment is processed when the propeller operates normally.

また、誘導の方法としては、ケーブル131の接続された無人航空機であった場合には、ケーブルを引っ張ることで安全地帯に誘導することも可能である。その場合は、ステップS1203でパラシュートが開かれていることが安全面からは望ましい。   Further, as a guidance method, in the case of an unmanned aerial vehicle to which the cable 131 is connected, it is possible to guide to a safe area by pulling the cable. In that case, it is desirable from the viewpoint of safety that the parachute is opened in step S1203.

図14は、本発明の実施形態における第4の制御処理の一例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of a fourth control process according to the embodiment of the present invention.

第4の制御処理は、無人航空機の異常を検知すると、無人航空機が安全な地域に落下できるようケーブルの長さを調整するよう制御するものである。   In the fourth control process, when an abnormality of the unmanned aircraft is detected, the length of the cable is controlled so that the unmanned aircraft can fall into a safe area.

主に制御用コンピュータ105のCPUによって処理される。ステップS1401で、無心航空機の異常検知処理が行われ、異常が検知されるまで処理をループする。   Processing is mainly performed by the CPU of the control computer 105. In step S1401, an abnormality detection process for the uncentered aircraft is performed, and the process loops until an abnormality is detected.

ステップS1402で異常が検知されると、ステップS1403に進み、パラシュート132が開かれる。   If an abnormality is detected in step S1402, the process proceeds to step S1403 and the parachute 132 is opened.

ステップS1404で安全地帯を取得する。安全地帯は、図13に示すように<落下してもよい地域>が設定さているものを取得してもよいし、図15に示すように、当該無人航空機に対応する基地局1530の中心から所定の半径内とするようにしてもよい。   In step S1404, a safe zone is acquired. As shown in FIG. 13, the safety zone may be obtained by setting <area where it may fall>, or as shown in FIG. 15, from the center of the base station 1530 corresponding to the unmanned aircraft. It may be within a predetermined radius.

ステップS1405では、無人航空機のケーブルの長さが、基地局1503から所定の距離に収まっているかどうかを判定し、ケーブルの長さが安全地帯に収まると判定された場合はステップS1407に進み、一方、収まらないと判定された場合は、ステップS1406に進む。ケーブル1532について図15を利用して説明する。   In step S1405, it is determined whether the cable length of the unmanned aerial vehicle is within a predetermined distance from the base station 1503. If it is determined that the cable length is within the safe zone, the process proceeds to step S1407. If it is determined that it does not fit, the process proceeds to step S1406. The cable 1532 will be described with reference to FIG.

基地局1503には、無人航空機(ドローン)1500に対して、給電や通信を行うためのケーブル1532が接続されている。ケーブルは巻取り装置1531によって、巻き取ることが可能となっており、また、基地局1503からドローン1500までのケーブルの長さを取得することも可能である。   The base station 1503 is connected to a cable 1532 for performing power supply and communication with an unmanned aerial vehicle (drone) 1500. The cable can be taken up by the take-up device 1531, and the length of the cable from the base station 1503 to the drone 1500 can be acquired.

パラシュート1534が利用されている場合、ケーブルで引っ張ることで、安全に安全地帯に誘導することができるが、安全地帯から離れている場合、ケーブルの距離調整間に合わない場合はあるので、ケーブル巻取りの速度を上げる必要がある一方、高度が低い場合、高速でケーブルを引っ張ると危険が伴う場合があるので、速度を下げることが望ましい。図14の説明に戻る。   When the parachute 1534 is used, it can be safely guided to the safety zone by pulling with the cable. However, if the parachute 1534 is away from the safety zone, it may not be possible to adjust the cable distance. While it is necessary to increase the speed, if the altitude is low, it may be dangerous to pull the cable at high speed, so it is desirable to decrease the speed. Returning to the description of FIG.

ステップS1406では、巻き取るケーブルの長さを決定するケーブル調整処理と、巻取り装置1531を利用してケーブルの長さを安全地帯に収まる長さになるように調整するケーブル牽引処理が行われる。   In step S1406, cable adjustment processing for determining the length of the cable to be wound and cable pulling processing for adjusting the length of the cable so as to be within the safety zone using the winding device 1531 are performed.

ステップS1407では、無人航空機の位置情報から高度を取得し、ステップS1408に進む。ステップS1408では、無人航空機が着地するまで処理を繰り返す。   In step S1407, the altitude is acquired from the position information of the unmanned aircraft, and the process proceeds to step S1408. In step S1408, the process is repeated until the unmanned aircraft has landed.

ステップS1409では、ケーブルの長さが安全地域内に収まったかどうかを判定し、安全地帯内に収まっていないと判定された場合は、ステップs1411に進み、ケーブルをより高速に牽引し、一方、収まっていると判定された場合は、ステップS1410に進み、ケーブルを低速で牽引する。   In step S1409, it is determined whether the length of the cable is within the safe area. If it is determined that the cable is not within the safe area, the process proceeds to step s1411 where the cable is pulled at a higher speed. If it is determined that the cable is connected, the process proceeds to step S1410 and the cable is pulled at a low speed.

なお、高速・低速とは、それまでと比べて高速・低速といった相対的な速度でも構わないし、それぞれの速度が決まっていてその速度で牽引するような絶対的な速度でも構わない。また、ケーブルの長さが安全地帯内に収まっている場合と収まっていない場合とで、速度に差を持たせる制御も本発明に含まれるものとする。   Note that the high speed and low speed may be relative speeds such as high speed and low speed as compared with the past, or may be absolute speeds in which each speed is determined and towed at that speed. In addition, the present invention includes control that makes a difference in speed depending on whether the length of the cable is within the safety zone or not.

また、ステップS1409の処理に加え、高度情報取得手段により無人航空機の高度を取得し、高さが所定の高さより高いか低いかによって、ケーブルを牽引する速度を異ならせるようにすることもできる。なお、ステップS1409によるケーブルの長さが安全地帯内かどうかの判定と、高さが所定の高さかどうかの判定は、どちらか一方を実行するようにしてもよいし、両方実行するようにしてもよい。   In addition to the processing in step S1409, the altitude information acquisition means can acquire the altitude of the unmanned aircraft, and the cable pulling speed can be varied depending on whether the height is higher or lower than a predetermined height. Note that either the determination of whether the cable length in step S1409 is within the safety zone and the determination of whether the height is a predetermined height may be executed, or both may be executed. Also good.

また、本体を引きずり傷が付いてしまうのを防止するために、無人航空機が落下5m手前になったらケーブルの巻取りを中止してもよいし、着陸したらケーブルの巻取りを中止するようにすることも有効である。   In order to prevent the main body from being scratched, the winding of the cable may be stopped when the unmanned aircraft is about 5 meters before dropping, or the winding of the cable is stopped after landing. It is also effective.

以上、実施例を利用して本発明について説明したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   As described above, the present invention has been described by using the embodiments. However, the present invention can be implemented as, for example, a system, an apparatus, a method, a program, a storage medium, or the like. You may apply to the system comprised, and may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現(実行可能と)するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, in order to realize (executable) the functional processing of the present invention by a computer, the program code itself installed in the computer also realizes the present invention. That is, the present invention also includes a computer program for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 無人航空機
102 プロポ
103 ネットワークカメラ
105 制御用コンピュータ
131 ケーブル
132 パラシュート

101 Unmanned Aircraft 102 Propo 103 Network Camera 105 Control Computer 131 Cable 132 Parachute

Claims (8)

無人航空機と、前記無人航空機を撮影可能なネットワークカメラ、および情報処理装置とがネットワークを介して接続された無人航空機制御システムであって、
前記無人航空機の異常を検知する異常検知手段と、
前記異常検知手段により異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定手段と、
前記ネットワークカメラ特定手段により特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影手段と、
を有することを特徴とする無人航空機制御システム。
An unmanned aircraft control system in which an unmanned aircraft, a network camera capable of photographing the unmanned aircraft, and an information processing apparatus are connected via a network,
An abnormality detecting means for detecting an abnormality of the unmanned aircraft;
Network camera specifying means for specifying a network camera capable of shooting an unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting means;
Imaging means for imaging the unmanned aerial vehicle in which the abnormality is detected by the network camera specified by the network camera specifying means;
An unmanned aerial vehicle control system.
前記異常検知手段により異常の検知された無人航空機の位置情報を取得する位置情報取得手段を更に有し、
前記撮影手段は、前記位置情報取得手段により位置情報の取得された無人航空機を撮影することを特徴とする請求項1記載の無人航空機制御システム。
It further comprises position information acquisition means for acquiring position information of the unmanned aerial vehicle in which an abnormality is detected by the abnormality detection means,
The unmanned aerial vehicle control system according to claim 1, wherein the photographing unit photographs the unmanned aerial vehicle whose position information is acquired by the position information acquiring unit.
前記無人航空機制御システムには、前記ネットワークカメラが複数台接続されており、
前記ネットワークカメラ特定手段により前記無人航空機を撮影可能なネットワークカメラが特定できない場合、前記撮影手段は、前記無人航空機に一番近いネットワークカメラに当該無人航空機の存在する方向を撮影させることを特徴とする請求項1または2記載の無人航空機制御システム。
A plurality of network cameras are connected to the unmanned aircraft control system,
When the network camera that can photograph the unmanned aircraft cannot be identified by the network camera identifying means, the photographing means causes the network camera closest to the unmanned aircraft to photograph the direction in which the unmanned aircraft exists. The unmanned aircraft control system according to claim 1 or 2.
無人航空機および前記無人航空機を撮影可能なネットワークカメラと接続可能な情報処理装置であって、
前記無人航空機の異常を検知する異常検知手段と、
前記異常検知手段により異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定手段と、
前記ネットワークカメラ特定手段により特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus connectable to an unmanned aircraft and a network camera capable of photographing the unmanned aircraft,
An abnormality detecting means for detecting an abnormality of the unmanned aircraft;
Network camera specifying means for specifying a network camera capable of shooting an unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting means;
Imaging means for imaging the unmanned aerial vehicle in which the abnormality is detected by the network camera specified by the network camera specifying means;
An information processing apparatus comprising:
無人航空機と、前記無人航空機を撮影可能なネットワークカメラ、および情報処理装置とがネットワークを介して接続された無人航空機制御システムの制御方法であって、
前記無人航空機の異常を検知する異常検知ステップと、
前記異常検知ステップにより異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定ステップと、
前記ネットワークカメラ特定ステップにより特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影ステップと、
を有することを特徴とする無人航空機制御システムの制御方法。
A control method of an unmanned aircraft control system in which an unmanned aircraft, a network camera capable of photographing the unmanned aircraft, and an information processing apparatus are connected via a network,
An anomaly detecting step for detecting an anomaly of the unmanned aerial vehicle;
A network camera specifying step for specifying a network camera capable of photographing the unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting step;
A photographing step of photographing the unmanned aerial vehicle in which the abnormality is detected by the network camera identified by the network camera identifying step;
A control method for an unmanned aerial vehicle control system, comprising:
無人航空機および前記無人航空機を撮影可能なネットワークカメラと接続可能な情報処理装置の制御方法であって、
前記無人航空機の異常を検知する異常検知ステップと、
前記異常検知ステップにより異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定ステップと、
前記ネットワークカメラ特定ステップにより特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影ステップと、
を有することを特徴とする情報処理装置。
A method for controlling an unmanned aerial vehicle and an information processing apparatus connectable with a network camera capable of photographing the unmanned aerial vehicle,
An anomaly detecting step for detecting an anomaly of the unmanned aerial vehicle;
A network camera specifying step for specifying a network camera capable of photographing the unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting step;
A photographing step of photographing the unmanned aerial vehicle in which the abnormality is detected by the network camera identified by the network camera identifying step;
An information processing apparatus comprising:
無人航空機と、前記無人航空機を撮影可能なネットワークカメラ、および情報処理装置とがネットワークを介して接続された無人航空機制御システムで読み取り可能なプログラムであって、
前記無人航空機制御システムを、
前記無人航空機の異常を検知する異常検知手段と、
前記異常検知手段により異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定手段と、
前記ネットワークカメラ特定手段により特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影手段と、
を有することを特徴とする無人航空機制御システムとして機能させるためのプログラム。
A program readable by an unmanned aerial vehicle control system in which an unmanned aircraft, a network camera capable of photographing the unmanned aircraft, and an information processing apparatus are connected via a network,
The unmanned aerial vehicle control system,
An abnormality detecting means for detecting an abnormality of the unmanned aircraft;
Network camera specifying means for specifying a network camera capable of shooting an unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting means;
Imaging means for imaging the unmanned aerial vehicle in which the abnormality is detected by the network camera specified by the network camera specifying means;
A program for causing an unmanned aircraft control system to function.
無人航空機および前記無人航空機を撮影可能なネットワークカメラと接続可能な情報処理装置で読み取り可能なプログラムあって、
前記情報処理装置を、
前記無人航空機の異常を検知する異常検知手段と、
前記異常検知手段により異常の検知された無人航空機を撮影可能なネットワークカメラを特定するネットワークカメラ特定手段と、
前記ネットワークカメラ特定手段により特定されたネットワークカメラにより前記異常の検知された無人航空機を撮影する撮影手段と、
を有することを特徴とする情報処理装置として機能させるためのプログラム。

There is a program readable by an information processing device connectable with an unmanned aerial vehicle and a network camera capable of photographing the unmanned aircraft,
The information processing apparatus;
An abnormality detecting means for detecting an abnormality of the unmanned aircraft;
Network camera specifying means for specifying a network camera capable of shooting an unmanned aerial vehicle in which an abnormality is detected by the abnormality detecting means;
Imaging means for imaging the unmanned aerial vehicle in which the abnormality is detected by the network camera specified by the network camera specifying means;
A program for causing a computer to function as an information processing apparatus.

JP2016213917A 2016-10-31 2016-10-31 Unmanned aircraft controlling system, controlling method and program thereof Pending JP2018070010A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016213917A JP2018070010A (en) 2016-10-31 2016-10-31 Unmanned aircraft controlling system, controlling method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213917A JP2018070010A (en) 2016-10-31 2016-10-31 Unmanned aircraft controlling system, controlling method and program thereof

Publications (1)

Publication Number Publication Date
JP2018070010A true JP2018070010A (en) 2018-05-10

Family

ID=62112070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213917A Pending JP2018070010A (en) 2016-10-31 2016-10-31 Unmanned aircraft controlling system, controlling method and program thereof

Country Status (1)

Country Link
JP (1) JP2018070010A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019209927A (en) * 2018-06-08 2019-12-12 カシオ計算機株式会社 Flight device, flight method, and program
WO2020022259A1 (en) * 2018-07-23 2020-01-30 株式会社ナイルワークス Farm land photographing camera
JP2020111104A (en) * 2019-01-09 2020-07-27 三菱ロジスネクスト株式会社 Unmanned air vehicle and transport system using the same
JP2020111105A (en) * 2019-01-09 2020-07-27 三菱ロジスネクスト株式会社 Unmanned air vehicle and transport system using the same
JP2020198477A (en) * 2019-05-30 2020-12-10 ソフトバンク株式会社 Monitoring system, image management device, flying object, and program
JP2022125239A (en) * 2018-06-08 2022-08-26 カシオ計算機株式会社 Flight device, flight method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019209927A (en) * 2018-06-08 2019-12-12 カシオ計算機株式会社 Flight device, flight method, and program
JP2022125239A (en) * 2018-06-08 2022-08-26 カシオ計算機株式会社 Flight device, flight method, and program
WO2020022259A1 (en) * 2018-07-23 2020-01-30 株式会社ナイルワークス Farm land photographing camera
JPWO2020022259A1 (en) * 2018-07-23 2021-01-07 株式会社ナイルワークス Field photography camera
JP2020111104A (en) * 2019-01-09 2020-07-27 三菱ロジスネクスト株式会社 Unmanned air vehicle and transport system using the same
JP2020111105A (en) * 2019-01-09 2020-07-27 三菱ロジスネクスト株式会社 Unmanned air vehicle and transport system using the same
JP2020198477A (en) * 2019-05-30 2020-12-10 ソフトバンク株式会社 Monitoring system, image management device, flying object, and program

Similar Documents

Publication Publication Date Title
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP6781375B2 (en) Unmanned aerial vehicle control system, its control method, and program
CN109074101B (en) Imaging using multiple drones
JP6575476B2 (en) Unmanned aircraft control system, control method thereof, and program
US20170166325A1 (en) Method of aerial vehicle-based image projection, device and aerial vehicle
US11531340B2 (en) Flying body, living body detection system, living body detection method, program and recording medium
US20200064133A1 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium
JP2018103936A (en) Unmanned aircraft control system, control method thereof, and program
JP6281720B2 (en) Imaging system
JP6521042B2 (en) Information processing apparatus, control method for information processing apparatus, unmanned aerial vehicle, unmanned aerial vehicle control method, and program
JP6555226B2 (en) Unmanned aircraft control system, control method thereof, and program
JP2019026121A (en) Unmanned aircraft control system, control method therefor, and program
JP2018092237A (en) Unmanned aircraft control system, and control method and program of the same
JP2019006154A (en) Flight vehicle, flight control system, flight control method, program, and recording medium
JP6265576B1 (en) Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program
JPWO2018163571A1 (en) Information processing apparatus, information processing method, and information processing program
JP2003110981A (en) Aerial video image processing system and wireless small- sized unmanned flying body
WO2019241970A1 (en) Unmanned aerial vehicle speaker control method and device
JP2018090012A (en) Unmanned aircraft control system, method for controlling unmanned aircraft control system, and program
KR101884125B1 (en) System for Self-Camera and Method using the same
JP6826294B2 (en) System, its control method, and program
JP2018173960A (en) Information processing system, control method thereof and program
JP2018070012A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP6481228B1 (en) Determination device, control device, imaging system, flying object, determination method, and program
EP3919374B1 (en) Image capturing method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109