JP6485889B2 - Flight control device, flight control method, and program - Google Patents

Flight control device, flight control method, and program Download PDF

Info

Publication number
JP6485889B2
JP6485889B2 JP2017538081A JP2017538081A JP6485889B2 JP 6485889 B2 JP6485889 B2 JP 6485889B2 JP 2017538081 A JP2017538081 A JP 2017538081A JP 2017538081 A JP2017538081 A JP 2017538081A JP 6485889 B2 JP6485889 B2 JP 6485889B2
Authority
JP
Japan
Prior art keywords
unmanned airplane
collision
target
distance
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017538081A
Other languages
Japanese (ja)
Other versions
JPWO2017038891A1 (en
Inventor
光洋 藤田
光洋 藤田
尚志 野田
尚志 野田
英志 山下
英志 山下
康行 伊原
康行 伊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2017038891A1 publication Critical patent/JPWO2017038891A1/en
Application granted granted Critical
Publication of JP6485889B2 publication Critical patent/JP6485889B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、無人飛行機の飛行を制御するための飛行制御装置、飛行制御方法、及びこれらを実現するためのプログラムに関する。 The present invention, flight control system for controlling the flight of the unmanned aircraft, a flight control method, and relates to a program for realizing these.

従来から、「ドローン」と呼ばれる無人飛行機(以下、「UAV(Unmanned Aerial Vehicle)」とも表記する。)は、軍事用途、農薬散布といった様々な用途に用いられている。とりわけ、近年においては、バッテリーの小型化及び高出力化により、動力源として電動モータを利用する小型の無人飛行機が開発されている(例えば、非特許文献1及び2参照。)。小型の無人飛行機は、運用が簡単であることから、急速に普及している。   Conventionally, an unmanned aerial plane called “drone” (hereinafter, also referred to as “UAV (Unmanned Aerial Vehicle)”) has been used for various purposes such as military use and agricultural chemical application. In particular, in recent years, small unmanned airplanes that use an electric motor as a power source have been developed due to the reduction in size and output of batteries (see, for example, Non-Patent Documents 1 and 2). Small unmanned aerial vehicles are rapidly becoming popular because of their simple operation.

また、無人飛行機は、GPS(Global Positioning System)受信機を備え、自身の位置を特定することができる。このため、無人飛行機においては、設定された経路に沿って飛行を行なうオートパイロットが実現されており、無人飛行機の用途は更に増加している。   The unmanned airplane is equipped with a GPS (Global Positioning System) receiver and can specify its own position. For this reason, in an unmanned aerial vehicle, an autopilot that flies along a set route is realized, and the use of the unmanned aerial vehicle is further increased.

“無人航空機”、[online]、2015年5月25日、ウィキペディア、[2015年6月1日検索]、インターネット<URL:http://ja.wikipedia.org/wiki/%E7%84%A1%E4%BA%BA%E8%88%AA%E7%A9%BA%E6%A9%9F>“Unmanned Aircraft”, [online], May 25, 2015, Wikipedia, [Search June 1, 2015], Internet <URL: http: //en.wikipedia.org/wiki/%E7%84%A1 % E4% BA% BA% E8% 88% AA% E7% A9% BA% E6% A9% 9F> “ドローン”、[online]、2015年4月22日、weblio辞書、[2015年6月1日検索]、インターネット<URL:http://www.weblio.jp/content/%E3%83%89%E3%83%AD%E3%83%BC%E3%83%B3>“Drone”, [online], April 22, 2015, web dictionary, [Search June 1, 2015], Internet <URL: http://www.weblio.jp/content/%E3%83%89 % E3% 83% AD% E3% 83% BC% E3% 83% B3>

ところで、無人飛行機が自身の位置を特定するためには、GPS受信機によって、3つ又は4つの衛星からGPS信号を受信する必要があるが、環境によっては、必要なGPS信号を全て受信できない場合がある。このような場合、無人飛行機は、自身の位置を特定できず、墜落する可能性がある。また、無人飛行機は、風の影響、バッテリーの電圧低下等を原因としても墜落する可能性がある。   By the way, in order for an unmanned aerial vehicle to identify its own position, it is necessary to receive GPS signals from three or four satellites by a GPS receiver. However, depending on the environment, all necessary GPS signals cannot be received. There is. In such a case, the unmanned airplane cannot identify its own position and may crash. Unmanned aerial vehicles may also crash due to wind effects, battery voltage drop, and the like.

しかしながら、従来からの無人飛行機において、墜落の可能性をゼロとすることは極めて困難である。このため、墜落地点に、ヒト、物等が存在すると、重大な衝突事故が発生してしまう可能生がある。   However, it is extremely difficult to eliminate the possibility of a crash in a conventional unmanned aerial vehicle. For this reason, if a person, an object, or the like is present at the crash point, a serious collision accident may occur.

本発明の目的の一例は、上記問題を解消し、無人飛行機の墜落による衝突事故の発生を抑制し得る、飛行制御装置、飛行制御方法、及びプログラムを提供することにある。 An object of the present invention is to provide a flight control device, a flight control method, and a program capable of solving the above-described problems and suppressing the occurrence of a collision accident due to a crash of an unmanned airplane.

上記目的を達成するため、本発明の一側面における飛行制御装置は、無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする。
In order to achieve the above object, a flight control apparatus according to one aspect of the present invention is an apparatus for controlling an unmanned airplane,
A collision target that detects a target existing below the unmanned airplane and calculates a distance between the detected target and the unmanned airplane based on a signal output from a sensor that can detect a situation below the unmanned airplane. A detection unit;
The altitude and speed of the unmanned airplane are identified, and whether the unmanned airplane and the target collide when the unmanned airplane crashes based on the identified altitude and speed and the calculated distance. A collision determination unit for determining;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における飛行制御方法は、無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする。
In order to achieve the above object, a flight control method according to one aspect of the present invention is a method for controlling an unmanned airplane,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、無人飛行機を制御するためのプログラムであって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to an aspect of the present invention, by a computer, a program for controlling the unmanned aircraft,
In the computer,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
Allowed to run and wherein the Turkey.

以上のように、本発明によれば、無人飛行機の墜落による衝突事故の発生を抑制することができる。   As described above, according to the present invention, it is possible to suppress the occurrence of a collision accident due to a crash of an unmanned airplane.

図1は、本発明の実施の形態における飛行制御装置の概略構成を示す構成図である。FIG. 1 is a configuration diagram showing a schematic configuration of a flight control apparatus according to an embodiment of the present invention. 図2は、本発明の実施の形態における飛行制御装置の構成を具体的に示すブロック図である。FIG. 2 is a block diagram specifically showing the configuration of the flight control device according to the embodiment of the present invention. 図3(a)及び(b)は、本発明の実施の形態において無人飛行機のセンサから出力された画像データの一例を示す図である。また、図3(a)及び(b)は、それぞれ、無人飛行機と対象との距離が異なる例を示している。FIGS. 3A and 3B are diagrams showing an example of image data output from the sensor of the unmanned airplane in the embodiment of the present invention. FIGS. 3A and 3B show examples in which the distance between the unmanned airplane and the target is different. 図4(a)は、無人飛行機が空中で停止している場合における衝突判定処理を説明する図であり、図4(b)は、無人飛行機が空中で停止している場合の衝突領域を示す図である。FIG. 4A is a diagram for explaining a collision determination process when the unmanned airplane is stopped in the air, and FIG. 4B shows a collision area when the unmanned airplane is stopped in the air. FIG. 図5(a)は、無人飛行機が空中を移動している場合における衝突判定処理を説明する図であり、図5(b)は、無人飛行機が移動している場合の衝突領域を示す図である。FIG. 5A is a diagram for explaining a collision determination process when the unmanned airplane is moving in the air, and FIG. 5B is a diagram showing a collision area when the unmanned airplane is moving. is there. 図6は、本発明の実施の形態における飛行制御装置の動作を示すフロー図である。FIG. 6 is a flowchart showing the operation of the flight control apparatus in the embodiment of the present invention. 図7は、本発明の実施の形態における飛行制御装置を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of a computer that implements the flight control apparatus according to the embodiment of the present invention. 図8は、本発明の実施の形態の変形例における飛行制御装置の構成を具体的に示すブロック図である。FIG. 8 is a block diagram specifically showing the configuration of the flight control device according to the modification of the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における、飛行制御装置、飛行制御方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, a flight control device, a flight control method, and a program according to an embodiment of the present invention will be described with reference to FIGS.

[装置構成]
最初に、本発明の実施の形態における飛行制御装置の構成について説明する。図1は、本発明の実施の形態における飛行制御装置の概略構成を示す構成図である。
[Device configuration]
Initially, the structure of the flight control apparatus in embodiment of this invention is demonstrated. FIG. 1 is a configuration diagram showing a schematic configuration of a flight control apparatus according to an embodiment of the present invention.

図1に示すように、本実施の形態における飛行制御装置10は、無人飛行機20を制御するための装置である。飛行制御装置10は、衝突対象検出部11と、衝突判定部12とを備えている。 As shown in FIG. 1, the flight control device 10 in the present embodiment is a device for controlling the unmanned airplane 20. The flight control device 10 includes a collision target detection unit 11 and a collision determination unit 12.

衝突対象検出部11は、無人飛行機20の下方の状況を検知可能なセンサ22が出力した信号に基づいて、無人飛行機20の下方に存在する対象を検出する。また、衝突対象検出部11は、検出した対象と無人飛行機20との距離を算出する。   The collision target detection unit 11 detects a target existing below the unmanned airplane 20 based on a signal output from the sensor 22 that can detect the situation below the unmanned airplane 20. Further, the collision target detection unit 11 calculates the distance between the detected target and the unmanned airplane 20.

衝突判定部12は、無人飛行機20の高度及び速度を特定し、特定した高度及び速度と算出した距離とに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と対象とが衝突するかどうかを判定する。   The collision determination unit 12 identifies the altitude and speed of the unmanned airplane 20 and whether the unmanned airplane 20 collides with the target when the unmanned airplane 20 crashes based on the identified altitude and speed and the calculated distance. Determine if.

このように、本実施の形態では、無人飛行機20と衝突の可能性がある対象の検出が、常に行なわれており、そして、対象が検出されると、対象と無人飛行機20との衝突の可能性が判断される。このため、無人飛行機の墜落による衝突事故の発生が抑制される。   Thus, in the present embodiment, detection of an object that may collide with the unmanned airplane 20 is always performed, and when the object is detected, the object and the unmanned airplane 20 can collide. Sex is judged. For this reason, the occurrence of a collision accident due to the crash of an unmanned airplane is suppressed.

続いて、図1に加え、図2〜図5を用いて、本実施の形態における飛行制御装置10の構成について更に具体的に説明する。図2は、本発明の実施の形態における飛行制御装置の構成を具体的に示すブロック図である。また、図2は、制御対象となる無人飛行機の構成についても開示している。   Next, the configuration of the flight control apparatus 10 according to the present embodiment will be described more specifically with reference to FIGS. 2 to 5 in addition to FIG. FIG. 2 is a block diagram specifically showing the configuration of the flight control device according to the embodiment of the present invention. FIG. 2 also discloses the configuration of an unmanned airplane to be controlled.

まず、図1に示したように、本実施の形態において、制御対象となる無人飛行機20は、複数のローターを備えたマルチコプターであり、いわゆるドローンである。図2に示すように、無人飛行機20は、データ処理部21と、センサ22と、GPS信号受信部23と、推力発生部24と、無線通信部25とを備えている。   First, as shown in FIG. 1, in the present embodiment, the unmanned airplane 20 to be controlled is a multicopter including a plurality of rotors, and is a so-called drone. As shown in FIG. 2, the unmanned airplane 20 includes a data processing unit 21, a sensor 22, a GPS signal receiving unit 23, a thrust generating unit 24, and a wireless communication unit 25.

無人飛行機20において、無線通信部25は、飛行制御装置10との間で無線によるデータ通信を実行している。無線通信部25は、例えば、Wi−Fi通信用の通信デバイスによって実現される。   In the unmanned airplane 20, the wireless communication unit 25 performs wireless data communication with the flight control device 10. The wireless communication unit 25 is realized by a communication device for Wi-Fi communication, for example.

GPS信号受信部23は、衛星からのGPS(Global Positioning System)信号を受信し、受信したGPS信号に基づいて、無人飛行機20の現在の位置及び高度dを測定する。推力発生部24は、図1の例では、4つ備えられており、それぞれ、推力を発生させるローターとその駆動源となる電動機とを備えている。GPS signal receiving unit 23 receives a GPS (Global Positioning System) signal from a satellite, based on the received GPS signals to measure the current position and altitude d h of unmanned aircraft 20. In the example of FIG. 1, four thrust generation units 24 are provided, each including a rotor that generates thrust and an electric motor that is a driving source thereof.

データ処理部21は、GPS信号受信部23によって測定された現在の位置及び高度dに基づいて、無人飛行機20の速度vを算出する。また、データ処理部21は、算出した速度v、現在の位置及び高度dを、状態情報として、無線通信部25を介して、飛行制御装置10に送信する。更に、データ処理部21は、各推力発生部24の推力を調整することで、無人飛行機20の速度v、高度d、及び進行方向を制御する。なお、無人飛行機20には、速度vを検出するためのセンサが搭載されていても良く、この場合は、センサによって速度vが測定される。The data processing unit 21, based on the current position and altitude d h measured by the GPS signal receiving unit 23, calculates the velocity v of the unmanned aircraft 20. The data processing unit 21, the calculated velocity v, the current position and altitude d h, as the state information, via the wireless communication unit 25 to transmit to the flight control device 10. Further, the data processing unit 21 controls the speed v, the altitude d h , and the traveling direction of the unmanned airplane 20 by adjusting the thrust of each thrust generating unit 24. The unmanned airplane 20 may be equipped with a sensor for detecting the speed v. In this case, the speed v is measured by the sensor.

また、無人飛行機20において、センサ22は、無人飛行機20の下方の状況を検知可能なものであれば良い。センサ22の具体例としては、例えば、受光した光に応じて画素信号を出力する撮像素子が挙げられる。また、撮像素子は、通常、レンズ等と組み合わされてカメラを構築することから、実際には、センサ22としては、撮像素子を備えるカメラが用いられる。更に、撮像素子が受光できる波長域は、可視光であっても良いし、赤外光であっても良いことから、カメラは、可視光カメラであっても良いし、赤外線カメラであっても良い。   Further, in the unmanned airplane 20, the sensor 22 may be any sensor that can detect the situation below the unmanned airplane 20. As a specific example of the sensor 22, for example, an imaging element that outputs a pixel signal in accordance with received light can be cited. In addition, since an image pickup element is usually combined with a lens or the like to construct a camera, in practice, a camera including an image pickup element is used as the sensor 22. Further, the wavelength range that can be received by the imaging device may be visible light or infrared light, so the camera may be a visible light camera or an infrared camera. good.

センサ22としてカメラが用いられる場合は、センサ22は、画素信号から作成された画像データを出力する(後述の図3(a)及び(b)参照)。これにより、データ処理部21は、出力された画像データを受け取り、これを、無線通信部25を介して、飛行制御装置10へと送信する。また、本実施の形態では、センサ22であるカメラは、無人飛行機20の底面に下方に向けて設置されている(図1参照)。従って、画像データで特定される画像は、上方からの画像となる。   When a camera is used as the sensor 22, the sensor 22 outputs image data created from the pixel signal (see FIGS. 3A and 3B described later). Thereby, the data processing unit 21 receives the output image data and transmits it to the flight control device 10 via the wireless communication unit 25. In the present embodiment, the camera as the sensor 22 is installed on the bottom surface of the unmanned airplane 20 so as to face downward (see FIG. 1). Therefore, the image specified by the image data is an image from above.

また、センサ22の他の例として、下方に存在する対象までの距離に応じて出力信号の特徴が変化するセンサも挙げられる。この場合、センサ22は、例えば、対象に光を照射する光源と、対象で反射された光を受信する受光素子とを備えており、受光素子の出力信号から、周辺の状況を特定するデータを生成する。具体的には、センサ22としては、レーザ光線を出射光として用いるレーザレンジファインダ、赤外光を出射光として利用するデプスカメラが挙げられる。   Another example of the sensor 22 is a sensor in which the characteristics of the output signal change according to the distance to the target existing below. In this case, the sensor 22 includes, for example, a light source that irradiates light to the target and a light receiving element that receives light reflected by the target, and uses the output signal of the light receiving element to specify data that identifies the surrounding situation. Generate. Specifically, examples of the sensor 22 include a laser range finder that uses a laser beam as outgoing light, and a depth camera that uses infrared light as outgoing light.

無人飛行機20は、このような構成により、例えば、現在地を確認しながら、設定された航路に沿って飛行することができる。また、無人飛行機20は、飛行制御装置10からの指示に応じて、飛行することもできる。そして、無人飛行機20は、飛行の際、センサ22によって、下方の状況を検知する。   With such a configuration, the unmanned airplane 20 can fly along a set route, for example, while confirming the current location. The unmanned airplane 20 can also fly in response to an instruction from the flight control device 10. Then, the unmanned airplane 20 detects the lower situation by the sensor 22 during the flight.

また、図2に示すように、本実施の形態では、飛行制御装置10は、無人飛行機20の外部に設置され、無線通信によって無人飛行機20との間でデータ通信を実行する。このため、飛行制御装置10は、上述した衝突対象検出部11及び衝突判定部12に加えて、無線通信部13を備えている。   As shown in FIG. 2, in the present embodiment, the flight control device 10 is installed outside the unmanned airplane 20 and performs data communication with the unmanned airplane 20 by wireless communication. For this reason, the flight control device 10 includes a wireless communication unit 13 in addition to the collision target detection unit 11 and the collision determination unit 12 described above.

無線通信部13は、無人飛行機20との間で、衝突対象検出部11及び衝突判定部12の指示に応じて、無線によるデータ通信を実行する。無線通信部13も、例えば、Wi−Fi通信用の通信デバイスによって実現される。   The wireless communication unit 13 performs wireless data communication with the unmanned airplane 20 in accordance with instructions from the collision target detection unit 11 and the collision determination unit 12. The wireless communication unit 13 is also realized by a communication device for Wi-Fi communication, for example.

また、本実施の形態において、衝突対象検出部11は、上述したように、無人飛行機20の下方に存在する対象の検出と対象までの距離の算出とを実行するが、検出処理及び算出処理は、無人飛行機20に備えられているセンサ22の種類に応じて異なっている。   In the present embodiment, as described above, the collision target detection unit 11 performs detection of a target existing below the unmanned airplane 20 and calculation of a distance to the target. This differs depending on the type of sensor 22 provided in the unmanned airplane 20.

例えば、センサ22が、上述した画像データを出力するカメラであるとする。この場合、衝突対象検出部11は、カメラが出力した画像データから、対象を検出し、検出した対象の画像データにおける大きさを特定し、特定した大きさに基づいて、検出した対象と無人飛行機20との距離を算出する。   For example, it is assumed that the sensor 22 is a camera that outputs the above-described image data. In this case, the collision target detection unit 11 detects the target from the image data output from the camera, specifies the size of the detected target image data, and based on the specified size, the detected target and the unmanned airplane The distance to 20 is calculated.

ここで、図3を用いて、センサ22がカメラである場合の検出処理及び算出処理の具体例について説明する。図3(a)及び(b)は、本発明の実施の形態において無人飛行機のセンサから出力された画像データの一例を示す図である。また、図3(a)及び(b)は、それぞれ、無人飛行機と対象との距離が異なる例を示している。加えて、センサ22として機能するカメラには、画像中の物体の遠近を強調するため、魚眼レンズが搭載されているとする。なお、魚眼レンズが搭載される代わりに、画像データに対して、遠近を強調する画像処理が行なわれていても良い。   Here, a specific example of detection processing and calculation processing when the sensor 22 is a camera will be described with reference to FIG. FIGS. 3A and 3B are diagrams showing an example of image data output from the sensor of the unmanned airplane in the embodiment of the present invention. FIGS. 3A and 3B show examples in which the distance between the unmanned airplane and the target is different. In addition, it is assumed that the camera functioning as the sensor 22 is equipped with a fisheye lens in order to emphasize the perspective of an object in the image. Note that image processing for emphasizing perspective may be performed on image data instead of mounting a fisheye lens.

まず、図3(a)及び(b)に示すように、無人飛行機20が地上から遠ざかる程、ヒト30の頭部30aの最大長は小さくなる。即ち、図3(b)の場合の方が、図3(a)の場合に比べて、無人飛行機20の高度は高くなるため、ヒト30の頭部30aの最大長は小さくなる。   First, as shown in FIGS. 3A and 3B, the maximum length of the head 30a of the human 30 decreases as the unmanned airplane 20 moves away from the ground. That is, since the altitude of the unmanned airplane 20 is higher in the case of FIG. 3B than in the case of FIG. 3A, the maximum length of the head 30a of the human 30 is smaller.

また、カメラには魚眼レンズが搭載されているため、図3(a)及び(b)に示すように、頭部30aの最大長は、ヒト30の位置が画像の中心32に近づく程大きくなり、画像の中心32から離れる程小さくなる。なお、画像の中心32は、無人飛行機20に搭載されているカメラの直下の位置に相当する。   In addition, since the camera is equipped with a fisheye lens, as shown in FIGS. 3A and 3B, the maximum length of the head 30a increases as the position of the human 30 approaches the center 32 of the image, The smaller the distance from the center 32 of the image, the smaller. The center 32 of the image corresponds to a position immediately below the camera mounted on the unmanned airplane 20.

これらの点を考慮すると、無人飛行機20からヒト30までの距離dmh(図4参照)は、ヒト30の画像データ上での大きさと、ヒト30の画像の中心32までの距離とによって一義的に決定される。従って、これらの相関関係が分かっていれば、ヒト30の画像データ上での大きさと、ヒト30の画像の中心32までの距離とを特定することで、無人飛行機20からヒト30までの距離dmhを算出することができる。このため、本実施の形態においては、これら三者の相関関係が予め特定される。Considering these points, the distance d mh (see FIG. 4) from the unmanned airplane 20 to the human 30 is uniquely determined by the size of the human 30 on the image data and the distance to the center 32 of the human 30 image. To be determined. Therefore, if these correlations are known, the distance d from the unmanned airplane 20 to the human 30 can be determined by specifying the size of the human 30 on the image data and the distance to the center 32 of the human 30 image. mh can be calculated. For this reason, in the present embodiment, the correlation between these three is specified in advance.

そして、図3(a)及び(b)に示すように、無人飛行機20の下方に、ヒト30が存在しているとする。この場合、衝突対象検出部11は、まず、画像データ上の特徴量に基づいて、ヒト30を検出し、検出したヒト30の画像データ上での大きさと、ヒト30から画像の中心32までの距離とを特定する。また、このとき、無人飛行機20が移動しているのであれば、衝突対象検出部11は、無人飛行機20の移動方向側の設定領域に存在するヒト30についてのみ距離を特定する。なお、設定領域は、無人飛行機20の地面への投影面積を考慮して適宜設定される。   Then, as shown in FIGS. 3A and 3B, it is assumed that a human 30 exists below the unmanned airplane 20. In this case, the collision target detection unit 11 first detects the person 30 based on the feature amount on the image data, and the size of the detected person 30 on the image data and the person 30 to the center 32 of the image. Specify the distance. At this time, if the unmanned airplane 20 is moving, the collision target detection unit 11 specifies the distance only for the human 30 existing in the set area on the moving direction side of the unmanned airplane 20. The setting area is appropriately set in consideration of the projected area of the unmanned airplane 20 on the ground.

具体的には、衝突対象検出部11は、例えば、ヒト30の頭部30aの最大長(ピクセル数)を算出し、これを大きさとして特定する。また、衝突対象検出部11は、頭部30aの中心から画像の中心32までの距離(ピクセル数)を算出し、これを画像の中心32までの距離として特定する。   Specifically, the collision target detection unit 11 calculates, for example, the maximum length (number of pixels) of the head 30a of the human 30 and specifies this as the size. The collision target detection unit 11 calculates the distance (number of pixels) from the center of the head 30a to the center 32 of the image, and specifies this as the distance to the center 32 of the image.

続いて、衝突対象検出部11は、予め特定された相関関係に、特定した頭部30aの最大長と、頭部30aの中心から画像の中心32までの距離とを当てはめて、検出したヒト30と無人飛行機20との距離dmh(図4参照)を算出する。Subsequently, the collision target detection unit 11 applies the maximum length of the specified head 30a and the distance from the center of the head 30a to the center 32 of the image to the correlation specified in advance, and detects the detected human 30. And a distance d mh (see FIG. 4) between the aircraft 20 and the unmanned airplane 20 is calculated.

また、衝突対象検出部11は、対象として、ヒト30以外のもの、例えば、自動車31を検出することもできる。この場合は、衝突対象検出部11は、自動車31の画像データ上での大きさ(例えば、全長)と、自動車31から画像の中心32までの距離とを特定し、特定した大きさと中心32までの距離とを、自動車について設定されている相関関係に当てはめて、自動車31と無人飛行機20との距離dmhを算出する。Moreover, the collision target detection unit 11 can also detect a target other than the human 30, for example, the automobile 31 as a target. In this case, the collision target detection unit 11 specifies the size (for example, the total length) of the automobile 31 on the image data and the distance from the automobile 31 to the center 32 of the image. Is applied to the correlation set for the automobile, and the distance d mh between the automobile 31 and the unmanned airplane 20 is calculated.

図3(a)及び(b)は、カメラ向きが無人飛行機20の真下方向に設定されている例を示しているが、本実施の形態では、カメラの向きは特に限定されるものではない。例えば、カメラの向きは、無人飛行機20の進行方向、又は進行方向から下方に傾斜させた方向であっても良い。また、この場合は、魚眼レンズを搭載しなくても、画像中の物体の遠近の特定は容易である。   FIGS. 3A and 3B show an example in which the camera direction is set directly below the unmanned airplane 20, but the camera direction is not particularly limited in the present embodiment. For example, the direction of the camera may be a traveling direction of the unmanned airplane 20 or a direction inclined downward from the traveling direction. In this case, it is easy to specify the perspective of an object in the image without mounting a fisheye lens.

また、センサ22が、下方に存在する対象までの距離に応じて出力信号の特徴が変化するセンサであるとする。この場合、衝突対象検出部11は、センサ22が出力した信号の特徴の変化から、対象を検出すると共に、対象と無人飛行機20との距離dmhを算出する。Further, it is assumed that the sensor 22 is a sensor in which the characteristics of the output signal change according to the distance to the target existing below. In this case, the collision target detection unit 11 detects the target from the change in the characteristics of the signal output from the sensor 22 and calculates the distance d mh between the target and the unmanned airplane 20.

衝突判定部12は、本実施の形態では、無人飛行機20から送信されてきた状態情報を取得し、取得した状態情報から無人飛行機20の高度d及び速度vを特定する。また、衝突判定部12は、特定した高度d及び速度vに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と衝突する可能性がある地上の領域(以下「衝突領域」と表記する。)を特定する。Collision determination unit 12, in this embodiment, obtains the status information transmitted from the unmanned aircraft 20, to identify the high d h and velocity v of the unmanned aerial 20 from the acquired state information. Moreover, the collision determination unit 12, based on the specified altitude d h and velocity v, when the unmanned aircraft 20 has crashed, ground area that may collide with the unmanned aerial vehicle 20 (hereinafter the "collision area" index ).

そして、衝突判定部12は、衝突対象検出部11によって算出された距離dmhを用いて、対象が衝突領域内に位置しているかどうかを判定する。判定の結果、対象が衝突領域内に位置している場合は、衝突判定部12は、無人飛行機20と対象とが衝突する可能性があると判定する。Then, the collision determination unit 12 determines whether the target is located in the collision region using the distance dmh calculated by the collision target detection unit 11. As a result of the determination, when the target is located in the collision area, the collision determination unit 12 determines that there is a possibility that the unmanned airplane 20 and the target collide.

ここで、図4及び図5を用いて、衝突判定処理の具体例について説明する。図4(a)は、無人飛行機が空中で停止している場合における衝突判定処理を説明する図であり、図4(b)は、無人飛行機が空中で停止している場合の衝突領域を示す図である。図5(a)は、無人飛行機が空中を移動している場合における衝突判定処理を説明する図であり、図5(b)は、無人飛行機が移動している場合の衝突領域を示す図である。   Here, a specific example of the collision determination process will be described with reference to FIGS. 4 and 5. FIG. 4A is a diagram for explaining a collision determination process when the unmanned airplane is stopped in the air, and FIG. 4B shows a collision area when the unmanned airplane is stopped in the air. FIG. FIG. 5A is a diagram for explaining a collision determination process when the unmanned airplane is moving in the air, and FIG. 5B is a diagram showing a collision area when the unmanned airplane is moving. is there.

また、衝突領域は、無人飛行機20を地上に投影して得られる領域である。よって、衝突領域は、無人飛行機20の全長、全幅、対角長さのうち、最も長いものを直径とする円(半径:dinit)で近似することができる。以下の説明では、衝突領域は、半径dinitの円であるとする。また、図4(a)及び(b)、図5(a)及び(b)において、斜線が施された領域40は、衝突領域を示している。The collision area is an area obtained by projecting the unmanned airplane 20 onto the ground. Therefore, the collision area can be approximated by a circle (radius: d init ) whose diameter is the longest of the unmanned airplane 20 among the full length, full width, and diagonal length. In the following description, it is assumed that the collision area is a circle having a radius d init . In FIGS. 4A and 4B and FIGS. 5A and 5B, a hatched region 40 indicates a collision region.

まず、無人飛行機20が空中で停止している状態から墜落する場合を考える。この場合は、図4(a)及び(b)に示すように、無人飛行機20は略垂直に落下する。このため、衝突領域40は、無人飛行機20の直下に位置することになる。   First, consider a case where the unmanned airplane 20 crashes from a state where it is stopped in the air. In this case, as shown in FIGS. 4A and 4B, the unmanned airplane 20 falls substantially vertically. For this reason, the collision area 40 is located immediately below the unmanned airplane 20.

従って、図4(a)に示すように、衝突判定部12は、まず、無人飛行機20の直下の位置に、衝突領域40を設定する。次に、ヒト30と無人飛行機20の中心との水平距離をdとすると、衝突判定部12は、衝突対象検出部11によって算出された距離dmhと、無人飛行機の高度dと、ヒト30の身長Hとを、下記数1に代入して、水平距離dを算出する。なお、身長Hは、予め設定された値である。Therefore, as shown in FIG. 4A, the collision determination unit 12 first sets the collision area 40 at a position directly below the unmanned airplane 20. Next, if the horizontal distance between the human 30 and the center of the unmanned airplane 20 is d, the collision determination unit 12 calculates the distance d mh calculated by the collision target detection unit 11, the altitude d h of the unmanned airplane, and the human 30 The horizontal distance d is calculated by substituting the height H of N into the following equation 1. The height H is a preset value.

Figure 0006485889
Figure 0006485889

次に、衝突判定部12は、水平距離dが半径dinitより小さくなっているかどうかを判定する。そして、判定の結果、水平距離dが半径dinitより小さくなっている場合に、衝突判定部12は、ヒト30が衝突領域40に位置しており、無人飛行機20とヒト30とが衝突する可能性があると判定する。Next, the collision determination unit 12 determines whether or not the horizontal distance d is smaller than the radius d init . As a result of the determination, when the horizontal distance d is smaller than the radius d init , the collision determination unit 12 indicates that the human 30 is located in the collision area 40 and the unmanned airplane 20 and the human 30 can collide. Judge that there is sex.

なお、高度dの値が、ヒト30の身長Hの値に比べて十分に大きい場合は、「d−H≒d」と見なすことができる。この場合は、上記数1は、下記の数2のように書き換えることができる。The value of the altitude d h is, if sufficiently large compared to the value of the height H of the human 30 can be regarded as "d h -H ≒ d h". In this case, the above equation 1 can be rewritten as the following equation 2.

Figure 0006485889
Figure 0006485889

続いて、無人飛行機20が空中を移動している状態から墜落する場合を考える。この場合は、無人飛行機20は、進行方向において放物線を描きながら墜落する。このため、図5(a)及び(b)に示すように、衝突領域40は、無人飛行機20の直下から離れたところに位置することになる。   Next, consider a case where the unmanned airplane 20 crashes from a state of moving in the air. In this case, the unmanned airplane 20 crashes while drawing a parabola in the traveling direction. For this reason, as shown in FIGS. 5A and 5B, the collision area 40 is located away from directly below the unmanned airplane 20.

まず、衝突判定部12は、この場合においても、図4(a)及び(b)の例と同様に、ヒト30と無人飛行機20の中心との水平距離dを算出する。次に、衝突判定部12は、下記の数3に、無人飛行機20の高度d及び速度vを代入して、無人飛行機が墜落するまでの間に水平方向において移動する距離(以下「水平移動距離」)dを算出する。なお、下記の数3において「g」は重力加速度である。First, in this case as well, the collision determination unit 12 calculates the horizontal distance d between the human 30 and the center of the unmanned airplane 20 in the same manner as in the examples of FIGS. Next, the collision determination unit 12, the number 3 below, by substituting a high d h and velocity v of the unmanned aircraft 20, the moving distance (hereinafter "horizontal movement in the horizontal direction until unmanned air crash distance ") is calculated d c. In the following equation 3, “g” is the gravitational acceleration.

Figure 0006485889
Figure 0006485889

次に、衝突判定部12は、現在の無人飛行機20の位置から進行方向において水平移動距離dの分だけ離れた位置に、半径dinitの円として、衝突領域40を設定する。但し、無人飛行機20の進行方向が変化した場合は、衝突領域40は、例えば、図5(b)に示す領域40aの位置に移動する。また、衝突領域40は、無人飛行機20の速度が遅くなった場合は、領域40bの位置に移動し、無人飛行機20の速度が速くなった場合は、領域40cの位置に移動する。Next, the collision determination unit 12, to the minute apart position of the horizontal movement distance d c in the traveling direction from the current position of the unmanned aircraft 20, as a circle of radius d init, sets the collision area 40. However, when the traveling direction of the unmanned airplane 20 changes, the collision area 40 moves to the position of the area 40a shown in FIG. 5B, for example. Further, the collision area 40 moves to the position of the area 40b when the speed of the unmanned airplane 20 becomes slow, and moves to the position of the area 40c when the speed of the unmanned airplane 20 becomes fast.

そして、無人飛行機20が移動している場合に水平距離dが特定されたヒト30は、上述したように進行方向側に存在しているので、衝突判定部12は、水平距離dが下記の数4を満たしているかどうかを判定する。   Since the human 30 whose horizontal distance d is specified when the unmanned airplane 20 is moving exists on the traveling direction side as described above, the collision determination unit 12 determines that the horizontal distance d is the following number. 4 is determined.

Figure 0006485889
Figure 0006485889

そして、判定の結果、水平距離dが上記の数4を満たしている場合は、衝突判定部12は、ヒト30が衝突領域40に位置しており、無人飛行機20とヒト30とが衝突する可能性があると判定する。   As a result of the determination, when the horizontal distance d satisfies the above equation 4, the collision determination unit 12 indicates that the human 30 is located in the collision area 40 and the unmanned airplane 20 and the human 30 can collide. Judge that there is sex.

また、本実施の形態では、衝突判定部12は、衝突する可能性があると判定した場合に、無人飛行機20に対して、対象との衝突が回避される行動、及び衝突によって生じる対象のダメージが軽減される行動のうち、少なくとも1つを指示することができる。このような行動の具体例としては、対象から離れるように移動すること、移動速度を抑えること、対象に対して音及び光のいずれか又は両方によって警告を出力すること、高度を落とすこと、等が挙げられる。   Further, in the present embodiment, when the collision determination unit 12 determines that there is a possibility of a collision, the behavior that avoids the collision with the target on the unmanned airplane 20 and the target damage caused by the collision It is possible to instruct at least one of the actions to be reduced. Specific examples of such actions include moving away from the target, suppressing the speed of movement, outputting a warning to the target by either or both sound and light, reducing altitude, etc. Is mentioned.

具体的には、衝突判定部12は、例えば、画像データからヒト30等の対象が存在していない位置を特定できるのであれば、特定した位置に移動することを指示する命令(以下「衝突回避命令」と表記する。)を作成することができる。また、衝突判定部12は、無人飛行機20の移動速度の低下及び高度の低下等を指示する命令(以下「ダメージ軽減命令」と表記する。)を作成することもできる。   Specifically, for example, if the collision determination unit 12 can identify a position where a target such as the human 30 does not exist from the image data, a command for instructing movement to the identified position (hereinafter, “collision avoidance”). "Instruction".) Can be created. The collision determination unit 12 can also create a command (hereinafter referred to as a “damage reduction command”) that instructs a decrease in the moving speed and a decrease in altitude of the unmanned airplane 20.

そして、衝突判定部12は、作成した衝突回避命令又はダメージ軽減命令を、無線通信部13を介して、無人飛行機20に送信する。この場合、無人飛行機20において、データ処理部21は、命令の内容に応じて、各推力発生部24の推力を調整し、指示された位置に無人飛行機20を移動させたり、速度又は高度を低下させたりする。   Then, the collision determination unit 12 transmits the created collision avoidance command or damage reduction command to the unmanned airplane 20 via the wireless communication unit 13. In this case, in the unmanned airplane 20, the data processing unit 21 adjusts the thrust of each thrust generating unit 24 according to the contents of the command, moves the unmanned airplane 20 to the instructed position, or decreases the speed or altitude. I will let you.

更に、本実施の形態では、衝突判定部12は、衝突する可能性があると判定した場合に、例えば、無人飛行機20の管理者、操縦者等に、音及び光のいずれか又は両方によって、衝突を警告することもできる。具体的には、衝突判定部12は、管理者、操縦者等が所有する情報端末に対して、衝突する可能性がある旨の通知を送信し、この情報端末の画面及びスピーカによって警告を出力する。   Furthermore, in this embodiment, when the collision determination unit 12 determines that there is a possibility of a collision, for example, the manager, the operator, or the like of the unmanned airplane 20 is notified by either or both of sound and light. You can also warn of a collision. Specifically, the collision determination unit 12 transmits a notification that there is a possibility of collision to an information terminal owned by an administrator, a pilot, or the like, and outputs a warning through the screen and speaker of the information terminal. To do.

[装置動作]
次に、本発明の実施の形態における飛行制御装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における飛行制御装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態では、飛行制御装置10を動作させることによって、飛行制御方法が実施される。よって、本実施の形態における飛行制御方法の説明は、以下の飛行制御装置10の動作説明に代える。
[Device operation]
Next, the operation of the flight control apparatus 10 according to the embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the flight control apparatus in the embodiment of the present invention. In the following description, FIGS. In the present embodiment, the flight control method is implemented by operating the flight control device 10. Therefore, the description of the flight control method in the present embodiment is replaced with the following description of the operation of the flight control device 10.

最初に、図6に示すように、飛行制御装置10において、衝突対象検出部11は、無線通信部13を介して、無人飛行機20から送信されてきたセンサ出力信号を取得する(ステップA1)。具体的には、例えば、無人飛行機20に搭載されているセンサ22がカメラである場合は、衝突対象検出部11は、センサ出力信号として、画像データを取得する。   First, as shown in FIG. 6, in the flight control apparatus 10, the collision target detection unit 11 acquires the sensor output signal transmitted from the unmanned airplane 20 via the wireless communication unit 13 (step A1). Specifically, for example, when the sensor 22 mounted on the unmanned airplane 20 is a camera, the collision target detection unit 11 acquires image data as a sensor output signal.

次に、衝突対象検出部11は、ステップA1で取得したセンサ出力信号から、無人飛行機20の下方に存在する対象、例えば、ヒト30、自動車31等を検出し(ステップA2)、更に、無人飛行機20から検出した対象までの距離dmhを算出する(ステップA3)。Next, the collision target detection unit 11 detects an object existing below the unmanned airplane 20, for example, a human 30, an automobile 31, etc., from the sensor output signal acquired in step A1 (step A2). Further, the unmanned airplane A distance d mh from 20 to the detected object is calculated (step A3).

具体的には、例えば、センサ出力信号が画像データであるとすると、衝突対象検出部11は、画像データ上の特徴量と予め登録されている特徴量とを照合して、ヒト30、自動車31といった対象を検出する。そして、衝突対象検出部11は、抽出した対象の大きさを特定し、これを、予め登録されている大きさと距離との関係に当てはめて、対象と無人飛行機20との距離dmhを算出する。Specifically, for example, when the sensor output signal is image data, the collision target detection unit 11 collates the feature amount on the image data with the pre-registered feature amount, and the human 30 and the car 31. The target is detected. Then, the collision target detection unit 11 specifies the size of the extracted target, applies this to the relationship between the size and the distance registered in advance, and calculates the distance d mh between the target and the unmanned airplane 20. .

次に、衝突判定部12は、無人飛行機20から送信されてきた状態情報を取得し、取得した状態情報から無人飛行機20の高度d及び速度vを特定する(ステップA4)。次いで、衝突判定部12は、ステップA4で特定した高度d及び速度vと、ステップA3で算出された距離dmhとに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と対象とが衝突するかどうかを判定する(ステップA5)。Next, the collision determination unit 12 acquires the status information transmitted from the unmanned aircraft 20, to identify the high d h and velocity v of the unmanned aerial 20 from the acquired status information (step A4). Then, the collision determination unit 12, a high d h and velocity v specified in the step A4, on the basis of the distance d mh calculated in step A3, when crashed unmanned airplane 20, unmanned aerial 20 and the target Is determined to collide (step A5).

具体的には、ステップA5では、衝突判定部12は、ステップA4で特定した高度d及び速度vに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と衝突する可能性がある衝突領域40を特定する(図4(b)及び図5(b)参照)。そして、衝突判定部12は、ステップA3で算出された距離dmhを用いて、対象が衝突領域内40に位置するかどうかを判断し、それによって、無人飛行機20と対象とが衝突するかどうかを判定する。Specifically, in step A5, the collision determination unit 12, based on the altitude d h and velocity v specified in step A4, when the unmanned aircraft 20 has crashed, it may collide with the unmanned aerial vehicle 20 collides The region 40 is specified (see FIG. 4B and FIG. 5B). Then, the collision determination unit 12 determines whether or not the target is located in the collision area 40 using the distance d mh calculated in step A3, thereby determining whether or not the unmanned airplane 20 and the target collide. Determine.

ステップA5の判定の結果、無人飛行機20と対象とが衝突しないと判定した場合は、衝突判定部12は、後述のステップA7を実行する。一方、ステップA5の判定の結果、無人飛行機20と対象とが衝突すると判定した場合は、衝突判定部12は、衝突回避命令又はダメージ軽減命令を作成し、作成した命令を、無線通信部13を介して、無人飛行機20に送信する(ステップA6)。   As a result of the determination in step A5, when it is determined that the unmanned airplane 20 and the target do not collide, the collision determination unit 12 executes step A7 described later. On the other hand, as a result of the determination in step A5, when it is determined that the unmanned airplane 20 and the target collide, the collision determination unit 12 creates a collision avoidance command or a damage reduction command, and sends the created command to the wireless communication unit 13. To the unmanned airplane 20 (step A6).

また、ステップA5の判定の結果、無人飛行機20と対象とが衝突すると判定した場合は、衝突判定部12は、更に、無人飛行機20の管理者、操縦者等に、音及び光のいずれか又は両方によって、衝突を警告することもできる。   When it is determined that the unmanned airplane 20 and the target collide as a result of the determination in step A5, the collision determination unit 12 further informs the administrator, the operator, or the like of the unmanned airplane 20 of either sound or light or Both can also warn of a collision.

次に、ステップA5においてノーと判定した場合、又はステップA6を実行すると、衝突判定部12は、無人飛行機20が着陸しているかどうかを判定する(ステップA7)。ステップA7の判定の結果、無人飛行機20が着陸していない場合は、再度ステップA1が実行される。一方、ステップA7の判定の結果、無人飛行機20が着陸している場合は、飛行制御装置10における処理は終了する。   Next, when it is determined NO in Step A5, or when Step A6 is executed, the collision determination unit 12 determines whether the unmanned airplane 20 has landed (Step A7). If the result of determination in step A7 is that the unmanned airplane 20 has not landed, step A1 is executed again. On the other hand, if the result of the determination in step A7 is that the unmanned airplane 20 has landed, the processing in the flight control device 10 ends.

[実施の形態による効果]
以上のように本実施の形態では、無人飛行機20と衝突の可能性がある対象の検出が、常に行なわれ、地上の対象と無人飛行機20との衝突の可能性が判断される。よって、本実施の形態によれば、無人飛行機の墜落による衝突事故の発生が抑制される。
[Effects of the embodiment]
As described above, in the present embodiment, detection of an object that may collide with the unmanned airplane 20 is always performed, and the possibility of collision between the ground object and the unmanned airplane 20 is determined. Therefore, according to this embodiment, the occurrence of a collision accident due to the crash of an unmanned airplane is suppressed.

また、本実施の形態では、衝突の可能性がある場合に、無人飛行機20に衝突回避命令又はダメージ軽減命令が送信され、管理者、操縦者等に警告がなされるので、いっそう、衝突事故の発生が抑制される。   In the present embodiment, when there is a possibility of collision, a collision avoidance command or damage reduction command is transmitted to the unmanned airplane 20 and a warning is given to the manager, the operator, etc. Occurrence is suppressed.

[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1〜A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における飛行制御装置10と飛行制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、衝突対象検出部11、及び衝突判定部12として機能し、処理を行なう。
[program]
The program in the present embodiment may be a program that causes a computer to execute steps A1 to A7 shown in FIG. By installing and executing this program on a computer, the flight control device 10 and the flight control method in the present embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the collision target detection unit 11 and the collision determination unit 12 to perform processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、衝突対象検出部11、及び衝突判定部12のいずれかとして機能しても良い。   The program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as either the collision target detection unit 11 or the collision determination unit 12.

[物理構成]
ここで、本実施の形態におけるプログラムを実行することによって、飛行制御装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における飛行制御装置を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the flight control apparatus 10 by executing the program according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating an example of a computer that implements the flight control apparatus according to the embodiment of the present invention.

図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。   As shown in FIG. 7, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。   The CPU 111 performs various calculations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。   Specific examples of the storage device 113 include a hard disk drive and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。   Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- An optical storage medium such as ROM (Compact Disk Read Only Memory) can be used.

なお、本実施の形態における飛行制御装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、飛行制御装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。   In addition, the flight control apparatus 10 in this Embodiment is realizable not only by the computer in which the program was installed but by using the hardware corresponding to each part. Further, part of the flight control device 10 may be realized by a program, and the remaining part may be realized by hardware.

[変形例]
続いて、本実施の形態の変形例について図8を用いて説明する。図8は、本発明の実施の形態の変形例における飛行制御装置の構成を具体的に示すブロック図である。
[Modification]
Subsequently, a modification of the present embodiment will be described with reference to FIG. FIG. 8 is a block diagram specifically showing the configuration of the flight control device according to the modification of the embodiment of the present invention.

図1及び図2に示した例では、飛行制御装置10は、無人飛行機20の外部に設置されている。これに対して、図8に示すように、本変形例では、飛行制御装置10は、無人飛行機20のデータ処理部21内に構築されている。   In the example shown in FIGS. 1 and 2, the flight control device 10 is installed outside the unmanned airplane 20. On the other hand, as shown in FIG. 8, in this modification, the flight control device 10 is constructed in the data processing unit 21 of the unmanned airplane 20.

具体的には、本変形例は、無人飛行機20に搭載されているコンピュータに、飛行制御装置10を実現するプログラムをインストールし、これを実行することによって、実現されている。本変形例によれば、無人飛行機20が外部と無線通信を行なうことが出来なくなった場合においても、地上の対象と無人飛行機20との衝突事故の発生が抑制される。   Specifically, this modified example is realized by installing a program for realizing the flight control device 10 in a computer mounted on the unmanned airplane 20 and executing the program. According to this modification, even when the unmanned airplane 20 cannot perform wireless communication with the outside, the occurrence of a collision accident between the ground object and the unmanned airplane 20 is suppressed.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記18)によって表現することができるが、以下の記載に限定されるものではない。   Part or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 18) described below, but is not limited to the following description.

(付記1)
無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする飛行制御装置。
(Appendix 1)
A device for controlling an unmanned aerial vehicle,
A collision target that detects a target existing below the unmanned airplane and calculates a distance between the detected target and the unmanned airplane based on a signal output from a sensor that can detect a situation below the unmanned airplane. A detection unit;
The altitude and speed of the unmanned airplane are identified, and whether the unmanned airplane and the target collide when the unmanned airplane crashes based on the identified altitude and speed and the calculated distance. A collision determination unit for determining;
A flight control device comprising:

(付記2)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記衝突対象検出部が、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
(Appendix 2)
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
The collision target detection unit detects the target based on the image data generated from the pixel signal, specifies the size of the detected image data of the target, and based on the specified size, Calculating a distance between the detected object and the unmanned airplane;
The flight control device according to attachment 1.

(付記3)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記衝突対象検出部が、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
(Appendix 3)
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
The collision target detection unit detects the target from the change in the characteristics of the output signal and calculates the distance between the target and the unmanned airplane.
The flight control device according to attachment 1.

(付記4)
前記衝突判定部が、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記1に記載の飛行制御装置。
(Appendix 4)
The collision determination unit identifies the altitude and speed of the unmanned airplane, and based on the identified altitude and speed, an area on the ground that may collide with the unmanned airplane when the unmanned airplane crashes And using the distance calculated by the collision object detection unit to determine whether the object is located in the area, and when the object is located in the area Determining that the unmanned airplane and the subject may collide,
The flight control device according to attachment 1.

(付記5)
前記衝突判定部が、衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、
付記1に記載の飛行制御装置。
(Appendix 5)
When the collision determination unit determines that there is a possibility of a collision, an action of avoiding a collision with the target and an action of reducing damage to the target caused by the collision with respect to the unmanned airplane Instruct at least one of them,
The flight control device according to attachment 1.

(付記6)
前記衝突判定部が、衝突する可能性があると判定した場合に、衝突を警告する、
付記1に記載の飛行制御装置。
(Appendix 6)
When the collision determination unit determines that there is a possibility of a collision, warns the collision,
The flight control device according to attachment 1.

(付記7)
無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする飛行制御方法。
(Appendix 7)
A method for controlling an unmanned aerial vehicle,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
A flight control method comprising:

(付記8)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
(Appendix 8)
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
The flight control method according to appendix 7.

(付記9)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
(Appendix 9)
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
The flight control method according to appendix 7.

(付記10)
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記7に記載の飛行制御方法。
(Appendix 10)
In the step (b), the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area Determining that the unmanned airplane and the subject may collide,
The flight control method according to appendix 7.

(付記11)
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に有する、
付記7に記載の飛行制御方法。
(Appendix 11)
(C) When it is determined that there is a possibility of a collision in the step (b), an action to avoid a collision with the target and a damage to the target caused by the collision are performed on the unmanned airplane. Further comprising directing at least one of the actions to be mitigated;
The flight control method according to appendix 7.

(付記12)
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に有する、
付記7に記載の飛行制御方法。
(Appendix 12)
(D) When it is determined that there is a possibility of a collision in the step (b), the method further includes a step of warning the collision.
The flight control method according to appendix 7.

(付記13)
コンピュータによって、無人飛行機を制御するためのプログラムであって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させるプログラム。
(Appendix 13)
By a computer, a program for controlling the unmanned aircraft,
In the computer,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
Help Rogura-time to the execution.

(付記14)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記13に記載のプログラム
(Appendix 14)
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
The program according to attachment 13.

(付記15)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記13に記載のプログラム
(Appendix 15)
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
The program according to attachment 13.

(付記16)
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記13に記載のプログラム
(Appendix 16)
In the step (b), the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area Determining that the unmanned airplane and the subject may collide,
The program according to attachment 13.

(付記17)
前記コンピュータに、
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に実行させる、
付記13に記載のプログラム
(Appendix 17)
In the computer,
(C) When it is determined that there is a possibility of a collision in the step (b), an action to avoid a collision with the target and a damage to the target caused by the collision are performed on the unmanned airplane. Directing at least one of the actions to be mitigated, causing a further step to be performed,
The program according to attachment 13.

(付記18)
前記コンピュータに、
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に実行させる、
付記13に記載のプログラム
(Appendix 18)
In the computer,
(D) If it is determined that there is a possibility of a collision in the step (b), a step of warning the collision is further executed.
The program according to attachment 13.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

この出願は、2015年9月4日に出願された日本出願特願2015−174430を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2015-174430 for which it applied on September 4, 2015, and takes in those the indications of all here.

以上のように、本発明によれば、無人飛行機の墜落による衝突事故の発生を抑制することができる。本発明は、無人飛行機が利用される分野であれば制限無く利用できる。   As described above, according to the present invention, it is possible to suppress the occurrence of a collision accident due to a crash of an unmanned airplane. The present invention can be used without limitation as long as it is a field where unmanned aerial vehicles are used.

10 飛行制御装置
11 衝突対象検出部
12 衝突判定部
13 無線通信部
20 無人飛行機
21 データ処理部
22 センサ
23 GPS信号受信部
24 推力発生部
25 無線通信部
30 ヒト
30a 頭部
31 自動車
40 衝突領域
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 10 Flight control apparatus 11 Collision target detection part 12 Collision determination part 13 Wireless communication part 20 Unmanned airplane 21 Data processing part 22 Sensor 23 GPS signal receiving part 24 Thrust generator 25 Wireless communication part 30 Human 30a Head 31 Car 40 Collision area 110 Computer 111 CPU
112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Claims (15)

無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備え
前記衝突判定部が、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
ことを特徴とする飛行制御装置。
A device for controlling an unmanned aerial vehicle,
A collision target that detects a target existing below the unmanned airplane and calculates a distance between the detected target and the unmanned airplane based on a signal output from a sensor that can detect a situation below the unmanned airplane. A detection unit;
The altitude and speed of the unmanned airplane are identified, and whether the unmanned airplane and the target collide when the unmanned airplane crashes based on the identified altitude and speed and the calculated distance. A collision determination unit for determining;
Equipped with a,
The collision determination unit identifies the altitude and speed of the unmanned airplane, and based on the identified altitude and speed, an area on the ground that may collide with the unmanned airplane when the unmanned airplane crashes And using the distance calculated by the collision object detection unit to determine whether the object is located in the area, and when the object is located in the area Determining that the unmanned airplane and the subject may collide,
A flight control apparatus characterized by that.
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記衝突対象検出部が、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項1に記載の飛行制御装置。
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
The collision target detection unit detects the target based on the image data generated from the pixel signal, specifies the size of the detected image data of the target, and based on the specified size, Calculating a distance between the detected object and the unmanned airplane;
The flight control apparatus according to claim 1.
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記衝突対象検出部が、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項1または2に記載の飛行制御装置。
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
The collision target detection unit detects the target from the change in the characteristics of the output signal and calculates the distance between the target and the unmanned airplane.
The flight control device according to claim 1 or 2.
前記衝突判定部が、衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、
請求項1〜のいずれかに記載の飛行制御装置。
When the collision determination unit determines that there is a possibility of a collision, an action of avoiding a collision with the target and an action of reducing damage to the target caused by the collision with respect to the unmanned airplane Instruct at least one of them,
The flight control device according to any one of claims 1 to 3 .
前記衝突判定部が、衝突する可能性があると判定した場合に、衝突を警告する、
請求項1〜のいずれかに記載の飛行制御装置。
When the collision determination unit determines that there is a possibility of a collision, warns the collision,
The flight control device according to any one of claims 1 to 4 .
無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備え
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
ことを特徴とする飛行制御方法。
A method for controlling an unmanned aerial vehicle,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
Equipped with a,
In the step (b), the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area Determining that the unmanned airplane and the subject may collide,
The flight control method characterized by the above-mentioned.
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項に記載の飛行制御方法。
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
The flight control method according to claim 6 .
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項またはに記載の飛行制御方法。
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
The flight control method according to claim 6 or 7 .
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に有する、
請求項のいずれかに記載の飛行制御方法。
(C) When it is determined that there is a possibility of a collision in the step (b), an action to avoid a collision with the target and a damage to the target caused by the collision are performed on the unmanned airplane. Further comprising directing at least one of the actions to be mitigated;
The flight control method according to any one of claims 6 to 8 .
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に有する、
請求項のいずれかに記載の飛行制御方法。
(D) When it is determined that there is a possibility of a collision in the step (b), the method further includes a step of warning the collision.
The flight control method according to any one of claims 6 to 9 .
コンピュータによって、無人飛行機を制御するためのプログラムであって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させ
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、プログラム。
A program for controlling an unmanned aerial vehicle with a computer,
In the computer,
(A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and
(B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and
Was executed,
In the step (b), the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area A program for determining that there is a possibility of collision between the unmanned airplane and the object .
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項11に記載のプログラム。
The unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
The program according to claim 11 .
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項11または12に記載のプログラム。
The unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
The program according to claim 11 or 12 .
前記コンピュータに、
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に実行させる、
請求項1113のいずれかに記載のプログラム。
In the computer,
(C) When it is determined that there is a possibility of a collision in the step (b), an action to avoid a collision with the target and a damage to the target caused by the collision are performed on the unmanned airplane. Directing at least one of the actions to be mitigated, causing a further step to be performed,
The program according to any one of claims 11 to 13 .
前記コンピュータに、
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に実行させる、
請求項1114のいずれかに記載のプログラム。
In the computer,
(D) If it is determined that there is a possibility of a collision in the step (b), a step of warning the collision is further executed.
The program according to any one of claims 11 to 14 .
JP2017538081A 2015-09-04 2016-08-31 Flight control device, flight control method, and program Active JP6485889B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015174430 2015-09-04
JP2015174430 2015-09-04
PCT/JP2016/075560 WO2017038891A1 (en) 2015-09-04 2016-08-31 Flight control device, flight control method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JPWO2017038891A1 JPWO2017038891A1 (en) 2018-05-31
JP6485889B2 true JP6485889B2 (en) 2019-03-20

Family

ID=58188865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538081A Active JP6485889B2 (en) 2015-09-04 2016-08-31 Flight control device, flight control method, and program

Country Status (2)

Country Link
JP (1) JP6485889B2 (en)
WO (1) WO2017038891A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6405344B2 (en) * 2016-07-21 2018-10-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile object, obstacle detection method for mobile object, and obstacle detection program for mobile object
WO2018213961A1 (en) * 2017-05-21 2018-11-29 李仁涛 Mobile robot obstacle avoidance apparatus and method
DE102017116700A1 (en) * 2017-07-24 2019-01-24 Liftair Gmbh Unmanned aerial vehicle signal generator, unmanned aerial vehicle and method for generating a signal on an unmanned aerial vehicle
JP2019023010A (en) * 2017-07-24 2019-02-14 株式会社システック Control system of drone flying object
WO2019061063A1 (en) * 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 Image collection method for unmanned aerial vehicle, and unmanned aerial vehicle
JP7260281B2 (en) * 2018-10-25 2023-04-18 株式会社Nttドコモ Information processing equipment
CN110428664B (en) * 2019-09-09 2023-04-25 湖南科技大学 Traffic anti-collision method based on computer vision human body identification
WO2023238208A1 (en) * 2022-06-06 2023-12-14 株式会社RedDotDroneJapan Aerial photography system, aerial photography method, and aerial mobile body management device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110272523A1 (en) * 2009-01-19 2011-11-10 Kenji Uegaki Shock absorption system
EP2885676B1 (en) * 2012-08-17 2020-01-08 Perspective Robotics AG Flying camera with string assembly for localization and interaction
JP6195450B2 (en) * 2013-01-31 2017-09-13 セコム株式会社 Autonomous flying robot
JP6182343B2 (en) * 2013-03-29 2017-08-16 綜合警備保障株式会社 Flight control system and flight control method
JP6326237B2 (en) * 2014-01-31 2018-05-16 株式会社トプコン Measuring system

Also Published As

Publication number Publication date
JPWO2017038891A1 (en) 2018-05-31
WO2017038891A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
JP6485889B2 (en) Flight control device, flight control method, and program
WO2017081898A1 (en) Flight control device, flight control method, and computer-readable recording medium
JP6852672B2 (en) Aircraft control device, air vehicle control method, and program
EP3378707B1 (en) Collision prediction and forward airbag deployment system for autonomous driving vehicles
EP3521158B1 (en) Flight control device, unmanned aerial vehicle, flight control method, and computer program
TWI784102B (en) Method, processing device and non-transitory processor readable storage medium for operating or use in a robot vehicle
JP6599143B2 (en) Autonomous mobile robot
JP6525291B2 (en) Location management apparatus, location management method, and program
US11536833B2 (en) Information processing device, information processing method, and vehicle
US10538326B1 (en) Flare detection and avoidance in stereo vision systems
JP2019536697A (en) Unmanned aerial vehicle obstacle avoidance control method and unmanned aerial vehicle
JP2016173709A (en) Autonomous mobile robot
US20210349461A1 (en) Unmanned aerial vehicle, method for controlling unmanned aerial vehicle, control apparatus, and computer-readable storage medium
JP2016171509A (en) Calibration device
US11741932B2 (en) Unmanned aircraft and information processing method
JP7391114B2 (en) information processing equipment
KR102200182B1 (en) An unmanned aerial vehicle for displaying flight areas on the ground and its operating method
JP2023019846A (en) Unmanned aircraft, search device, search method, program and search system
JP7190325B2 (en) Information processing equipment
WO2020144936A1 (en) Information processing device, information processing method, and program
JP6529098B2 (en) Position estimation device, position estimation method, and program
WO2021187110A1 (en) Moving object, information processing device, information processing method, and program
KR20220058596A (en) Dimension Display System and Dimension Display Method
KR20230148625A (en) Apparatus for controlling flight of unmanned aerial vehicle and method thereof
JP2022132484A (en) Monitoring device, monitoring program, and monitoring system using flying object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6485889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150