JP2021093215A - Flying body control device, flying body control method and program - Google Patents

Flying body control device, flying body control method and program Download PDF

Info

Publication number
JP2021093215A
JP2021093215A JP2021036547A JP2021036547A JP2021093215A JP 2021093215 A JP2021093215 A JP 2021093215A JP 2021036547 A JP2021036547 A JP 2021036547A JP 2021036547 A JP2021036547 A JP 2021036547A JP 2021093215 A JP2021093215 A JP 2021093215A
Authority
JP
Japan
Prior art keywords
flying object
range
fall
control device
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021036547A
Other languages
Japanese (ja)
Inventor
高橋 勝彦
Katsuhiko Takahashi
勝彦 高橋
健一朗 猪田
Kenichiro Inota
健一朗 猪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021093215A publication Critical patent/JP2021093215A/en
Priority to JP2023072016A priority Critical patent/JP7456537B2/en
Priority to JP2024035858A priority patent/JP2024053085A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D25/00Emergency apparatus or devices, not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • B64U30/26Ducted or shrouded rotors

Abstract

To enable operation of a UAV at a low risk in a place where a human exist and a surrounding air area.SOLUTION: A flying body control device 100 includes a detection unit 101 that detects a target from video data output by an imaging device 201 for imaging a lower part of a flying body 200, a fall range estimation unit 102 that estimates a fall range of the flying body 200, and a control unit 103 that controls the flying body 200 so that a position of the detected target is not overlapped with the fall range.SELECTED DRAWING: Figure 1

Description

本発明は、飛行体、特には、無人飛行機(UAV:Unmanned Aerial Vehicle)の飛行ルートを制御する飛行体制御装置、飛行体制御方法、及びこれらを実現するための飛行体制御装置、飛行体制御方法、及びプログラムに関する。 The present invention relates to an air vehicle control device for controlling a flight route of an air vehicle, particularly an unmanned aerial vehicle (UAV), a vehicle body control method, and an air vehicle control device and an air vehicle control for realizing these. Regarding methods and programs.

近年、UAVが低空域の有効活用を図る手段として大いなる期待を集めている。これは、電動モータ及びバッテリーの小型化及び高出力化により、小型のUAVが安価で提供されるようになったことによる。とりわけ、操縦性及び安定性の点から、小型のUAVの多くは、複数のローターを備えたマルチコプタータイプとなっている。 In recent years, UAVs have received great expectations as a means of effectively utilizing low airspace. This is because small UAVs have come to be offered at low cost due to the miniaturization and high output of electric motors and batteries. In particular, from the viewpoint of maneuverability and stability, most of the small UAVs are multicopter types equipped with a plurality of rotors.

また、コンピュータの高性能化及び小型化により、UAVには、従来からの遠隔操作の模型ヘリコプター等とは異なり、コンピュータも備えられている。このため、UAVの飛行ルートを制御する方法としては、操縦者がマニュアル操縦する方法のほか、GPS(Global Positioning System)を用いてあらかじめ設定した座標経路に沿って自律的に飛行させる方法なども実現されている。 In addition, due to the high performance and miniaturization of computers, UAVs are also equipped with computers, unlike conventional remote-controlled model helicopters. For this reason, as a method of controlling the flight route of the UAV, in addition to the method of manually maneuvering by the operator, a method of autonomously flying along a preset coordinate path using GPS (Global Positioning System) is also realized. Has been done.

また、UAVを自律的に飛行させる場合においては、鉄塔及び送電線などの障害物とUAVとの衝突を回避する必要がある。このため、特許文献1は、UAVに障害物の座標をあらかじめ飛行ルートと共に入力しておくことで、UAVが障害物に接近しすぎた場合に、UAVに障害物を自動的に回避させる技術を提案している。 Further, when the UAV is to fly autonomously, it is necessary to avoid a collision between the UAV and an obstacle such as a steel tower or a power transmission line. Therefore, Patent Document 1 provides a technique for automatically avoiding an obstacle in the UAV when the UAV approaches the obstacle too much by inputting the coordinates of the obstacle into the UAV in advance together with the flight route. is suggesting.

更に、UAVは、防犯の分野での利用も期待されている。例えば、特許文献2は、建物に設置した監視カメラが侵入者を検知すると、UAVをそこに急行させて、UAVに搭載されているカメラによって、侵入者の検知及び追跡を行う技術を開示している。 Furthermore, UAVs are also expected to be used in the field of crime prevention. For example, Patent Document 2 discloses a technique in which when a surveillance camera installed in a building detects an intruder, the UAV is rushed there, and the camera mounted on the UAV detects and tracks the intruder. There is.

特開2003−127994号公報Japanese Unexamined Patent Publication No. 2003-127994 特開2014−149620号公報Japanese Unexamined Patent Publication No. 2014-149620

しかしながら、UAV、特にマルチコプタータイプのUAVの活用においては、突然落下する危険性が大きいという問題がある。また、突然の落下の原因としては、操縦ミス、電池切れ、燃料切れ、突風などによる環境条件の変化、通信不能事態の発生といったことが考えられる。 However, in utilizing UAVs, especially multicopter type UAVs, there is a problem that there is a high risk of sudden falling. In addition, the cause of the sudden fall may be a change in environmental conditions due to a steering error, a dead battery, a dead fuel, a gust of wind, or the occurrence of a communication failure situation.

そして、このような突然の落下によって、UAVが歩行者の頭上に万一落下すると、生死にかかわる事態となる。また、このような突然の落下を予測することは難しい。このため、現状においては、UAVの突然の落下に対する手立ては、落下のリスクを避けるために、UAVの飛行を、人がいない空間での運用に制限する、または落下の危険性をいとわない緊急事態での運用に制限することしかないのである。 If the UAV should fall over the head of a pedestrian due to such a sudden fall, it would be a life-threatening situation. Moreover, it is difficult to predict such a sudden fall. For this reason, under the present circumstances, measures against a sudden fall of a UAV may limit the flight of the UAV to operation in an unoccupied space or be willing to risk a fall in order to avoid the risk of the fall. There is no choice but to limit the operation in.

本発明の目的の一例は、上記問題を解決し、人が存在する場所及びその付近の空域においても、UAVを低いリスクで運用可能とし得る、飛行体制御装置、飛行体制御方法、及びプログラムを提供することにある。 An example of an object of the present invention provides an air vehicle control device, an air vehicle control method, and a program that can solve the above problems and enable the UAV to be operated with low risk even in the airspace where a person exists and its vicinity. To provide.

上記目的を達成するため、本発明の一側面における飛行体制御装置は、
飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、検知部と、
前記飛行体の落下範囲を推定する、落下範囲推定部と、
検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、制御部と、
を備えることを特徴とする。
In order to achieve the above object, the flying object control device in one aspect of the present invention is
A detector that detects the target from the video data output by the image pickup device that captures the lower part of the aircraft.
A fall range estimation unit that estimates the fall range of the flying object,
A control unit that controls the flying object so that the detected position of the target and the fall range do not overlap with each other.
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における飛行体制御方法は、
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、ステップと、
(b)前記飛行体の落下範囲を推定する、ステップと、
(c)検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、ステップと、
を有することを特徴とする。
Further, in order to achieve the above object, the flying object control method in one aspect of the present invention is:
(A) A step of detecting an object from the video data output by the image pickup device that captures the lower part of the flying object.
(B) A step for estimating the fall range of the flying object, and
(C) A step of controlling the flying object so that the detected position of the target and the falling range do not overlap with each other.
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、ステップと、
(b)前記飛行体の落下範囲を推定する、ステップと、
(c)検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
Further, in order to achieve the above object, the computer-readable recording medium in one aspect of the present invention may be used.
On the computer
(A) A step of detecting an object from the video data output by the image pickup device that captures the lower part of the flying object.
(B) A step for estimating the fall range of the flying object, and
(C) A step of controlling the flying object so that the detected position of the target and the falling range do not overlap with each other.
It is characterized by recording a program including an instruction to execute.

以上のように、本発明によれば、人が存在する場所及びその付近の空域においても、UAVを低いリスクで運用することができる。 As described above, according to the present invention, the UAV can be operated with a low risk even in the airspace in and near the place where a person exists.

図1は、本発明の実施の形態1における飛行体制御装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an air vehicle control device according to a first embodiment of the present invention. 図2は、本発明の実施の形態1において制御対象となる飛行体とその落下範囲の一例を示す図である。FIG. 2 is a diagram showing an example of an air vehicle to be controlled and a fall range thereof in the first embodiment of the present invention. 図3は、飛行体と風向きとの関係の一例を示す図である。FIG. 3 is a diagram showing an example of the relationship between the flying object and the wind direction. 図4は、風速及び高度に応じた落下範囲の一例を示す図である。FIG. 4 is a diagram showing an example of a fall range according to the wind speed and altitude. 図5は、地上に存在する人と落下範囲との位置関係の一例を示す図である。FIG. 5 is a diagram showing an example of the positional relationship between a person existing on the ground and a fall range. 図6は、図5に示した状態から飛行体200の高度を下げた場合を示す図である。FIG. 6 is a diagram showing a case where the altitude of the flying object 200 is lowered from the state shown in FIG. 図7は、本発明の実施の形態1における飛行体制御装置の動作を示すフロー図である。FIG. 7 is a flow chart showing the operation of the flying object control device according to the first embodiment of the present invention. 図8は、本発明の実施の形態2における飛行体制御装置の構成を示すブロック図である。FIG. 8 is a block diagram showing a configuration of an air vehicle control device according to a second embodiment of the present invention. 図9は、本発明の実施の形態2における飛行体制御装置の動作を示すフロー図である。FIG. 9 is a flow chart showing the operation of the flying object control device according to the second embodiment of the present invention. 図10は、本発明の実施の形態3における飛行体制御装置の構成を示すブロック図である。FIG. 10 is a block diagram showing a configuration of an air vehicle control device according to a third embodiment of the present invention. 図11は、本発明の実施の形態3における飛行体制御装置の動作を示すフロー図である。FIG. 11 is a flow chart showing the operation of the flying object control device according to the third embodiment of the present invention. 図12は、本発明の実施の形態3における飛行体制御装置の構成の他の例を示すブロック図である。FIG. 12 is a block diagram showing another example of the configuration of the flying object control device according to the third embodiment of the present invention. 図13は、本発明の実施の形態1〜3における飛行体制御装置を実現するコンピュータの一例を示すブロック図である。FIG. 13 is a block diagram showing an example of a computer that realizes the flying object control device according to the first to third embodiments of the present invention.

(実施の形態1)
以下、本発明の実施の形態1における、飛行体制御装置、飛行体制御方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment 1)
Hereinafter, the flying object control device, the flying object control method, and the program according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7.

[装置構成]
最初に、本実施の形態1における飛行体制御装置の構成について図1を用いて説明する。図1は、本発明の実施の形態1における飛行体制御装置の構成を示すブロック図である。
[Device configuration]
First, the configuration of the flying object control device according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an air vehicle control device according to a first embodiment of the present invention.

図1に示す飛行体制御装置100は、飛行体200の制御を行なうための装置である。ここで、飛行体200には、飛行機、ヘリコプター、飛行船等、飛行可能なもの全てが含まれる。また、図1においては、飛行体200の一例として無人飛行機(UAV)を示しているが、飛行体200においては、有人及び無人の別は問われない。 The flying object control device 100 shown in FIG. 1 is a device for controlling the flying object 200. Here, the air vehicle 200 includes all things that can fly, such as an airplane, a helicopter, and an airship. Further, in FIG. 1, an unmanned aerial vehicle (UAV) is shown as an example of the air vehicle 200, but the air vehicle 200 may be manned or unmanned.

図1に示すように、飛行体制御装置100は、検知部101と、落下範囲推定部102と、制御部103とを備えている。このうち、検知部101は、飛行体200の下方を撮影する撮像装置201が出力した映像データから、対象を検知する。対象としては、飛行体200の落下による飛行体200との衝突を回避する必要があるもの、例えば、人、ベビーカー、自転車、自動車、列車、船舶、航空機、絶滅が危惧される野生動物、建物等が挙げられる。 As shown in FIG. 1, the flying object control device 100 includes a detection unit 101, a fall range estimation unit 102, and a control unit 103. Of these, the detection unit 101 detects the target from the video data output by the image pickup device 201 that captures the lower part of the flying object 200. Targets include those that need to avoid collision with the flying object 200 due to the fall of the flying object 200, such as people, strollers, bicycles, automobiles, trains, ships, aircraft, endangered wild animals, and buildings. Can be mentioned.

また、落下範囲推定部102は、飛行体200の落下範囲を推定する。具体的には、落下範囲推定部102は、飛行体200の機能が停止又は低下することによって、飛行体200が落下した場合の落下範囲を推定する。制御部103は、検知された対象の位置と落下範囲とが重ならないように飛行体200を制御する。 Further, the fall range estimation unit 102 estimates the fall range of the flying object 200. Specifically, the fall range estimation unit 102 estimates the fall range when the flying object 200 falls by stopping or lowering the function of the flying object 200. The control unit 103 controls the flying object 200 so that the detected position of the target and the fall range do not overlap.

このように、飛行体制御装置100は、飛行体200に搭載された撮像装置201の映像から、飛行体200との衝突を回避したい対象を検出する。また、飛行体制御装置100は、飛行体200が落下した時に対象との衝突の可能性があると、飛行体200が対象に衝突しないように制御する。このため、飛行体制御装置100によれば、人が存在する場所及びその付近の空域であっても、飛行体200を低リスクで運用することが可能となる。 In this way, the flying object control device 100 detects an object whose collision with the flying object 200 is desired to be avoided from the image of the image pickup device 201 mounted on the flying object 200. Further, the flying object control device 100 controls so that the flying object 200 does not collide with the object when there is a possibility of collision with the object when the flying object 200 falls. Therefore, according to the flying object control device 100, it is possible to operate the flying object 200 with low risk even in the airspace in or near the place where a person exists.

続いて、図1に加えて図2を用いて、本実施の形態1における飛行体制御装置の構成について更に具体的に説明する。図2は、本発明の実施の形態1において制御対象となる飛行体とその落下範囲の一例を示す図である。 Subsequently, the configuration of the flying object control device according to the first embodiment will be described more specifically with reference to FIG. 2 in addition to FIG. FIG. 2 is a diagram showing an example of an air vehicle to be controlled and a fall range thereof in the first embodiment of the present invention.

図2に示すように、本実施の形態1においては、飛行体200として、4つのプロペラ備えるマルチコプタータイプのUAVが用いられている。また、飛行体200には、その下方に存在する対象を撮影するための撮像装置201が搭載されている。図2において、206は、衝突回避の対象を示している。なお、図2では、対象206は人を示している。更に、図1に示すように、飛行体200は、各プロペラを駆動するモータ203と、制御部103の指示に応じて各モータに電力を供給するモータ駆動部202とを備えている。 As shown in FIG. 2, in the first embodiment, a multicopter type UAV including four propellers is used as the flying object 200. Further, the flying object 200 is equipped with an imaging device 201 for photographing an object existing below the flying object 200. In FIG. 2, 206 indicates a collision avoidance target. In FIG. 2, the target 206 represents a person. Further, as shown in FIG. 1, the flying object 200 includes a motor 203 for driving each propeller and a motor driving unit 202 for supplying electric power to each motor in response to an instruction from the control unit 103.

撮像装置201の具体例としては、例えば、可視光カメラ、遠赤外線カメラ、及びToF(Time of Flight)カメラが挙げられる。また、撮像装置201は、これらのうちの2つ以上を組み合せて構成されていても良い。 Specific examples of the image pickup apparatus 201 include a visible light camera, a far infrared camera, and a ToF (Time of Flight) camera. Further, the image pickup apparatus 201 may be configured by combining two or more of these.

撮像装置201の撮影方向は、図2の例では、例えば、飛行体200の鉛直下方に設定される。但し、撮影方向は、鉛直下方に限定されることはなく、後述する落下範囲が撮影可能となるように、飛行体200の下方に設定されていれば良い。例えば、撮影方向は、飛行体200の進行方向から下方に傾けた方向であっても良い。 In the example of FIG. 2, the photographing direction of the image pickup apparatus 201 is set vertically below the flying object 200, for example. However, the shooting direction is not limited to the vertically downward direction, and may be set below the flying object 200 so that the falling range described later can be photographed. For example, the shooting direction may be a direction tilted downward from the traveling direction of the flying object 200.

また、例えば、特許文献2に開示されているように、飛行体200が、人物を追跡するためのカメラを備えている場合は、撮像装置201は、この追跡用のカメラと兼用であってもよいし、この追跡用のカメラとは別個のカメラであってもよい。 Further, for example, as disclosed in Patent Document 2, when the flying object 200 includes a camera for tracking a person, the image pickup device 201 may also be used as the tracking camera. Alternatively, the camera may be separate from the tracking camera.

検知部101は、上述したように、撮像装置201が出力した映像データから、衝突回避の対象となる人等を検知する。検知部101による対象の検知手法としては、既知のさまざまな検知手法を用いることができる。 As described above, the detection unit 101 detects a person or the like to be subject to collision avoidance from the video data output by the image pickup apparatus 201. As a target detection method by the detection unit 101, various known detection methods can be used.

例えば、撮像装置201が可視光カメラの場合は、事前に機械学習手法を用いて構築され、且つ、認識対象に対応する特徴量が登録された認識辞書を用いることで、人物を検出できる。具体的には、まず、映像データで特定される映像からさまざまな矩形領域が切り出され、次いで、切り出された各矩形領域から特徴量が算出される。その後、算出された特徴量が認識辞書に照合され、それによって、人物を示す領域が特定され、特定された領域が人物として検出される。 For example, when the imaging device 201 is a visible light camera, a person can be detected by using a recognition dictionary constructed in advance by using a machine learning method and in which feature quantities corresponding to recognition targets are registered. Specifically, first, various rectangular regions are cut out from the video specified by the video data, and then the feature amount is calculated from each of the cut out rectangular regions. After that, the calculated feature amount is collated with the recognition dictionary, whereby the area indicating the person is specified, and the specified area is detected as the person.

また、認識辞書を構築する際の学習アルゴリズムとしては、SVM(Support Vector Machine)、カスケード型識別器などが挙げられる。また、特徴量としては、HoG(Histograms of Oriented Gradients)特徴量、Haar−Like特徴量などを用いることができる。 Moreover, as a learning algorithm when constructing a recognition dictionary, SVM (Support Vector Machine), a cascade type classifier and the like can be mentioned. Further, as the feature amount, HoG (Histograms of Oriented Gradients) feature amount, Haar-Like feature amount and the like can be used.

また、例えば、撮像装置201が遠赤外線カメラの場合は、映像データで特定される赤外線映像から、画素値が体温に近い温度に対応している画素を抽出し、これらの隣接画素を接合して2次元的な領域を抽出することによって、人物を検出できる。更に、撮像装置201が遠赤外線カメラの場合も、可視光カメラの場合と同様に、認識辞書を用いることによって人物を検知できる。具体的には、この場合は、映像データで特定される赤外線画像から、画像処理により、温度が急激に変化している箇所が抽出される。そして、抽出された箇所から特徴量が算出され、その後、算出された特徴量が認識辞書に照合され、それによって、人物が検出される。 Further, for example, when the image pickup device 201 is a far-infrared camera, pixels whose pixel values correspond to temperatures close to body temperature are extracted from the infrared image specified by the image data, and these adjacent pixels are joined. A person can be detected by extracting a two-dimensional area. Further, even when the image pickup device 201 is a far-infrared camera, a person can be detected by using a recognition dictionary as in the case of a visible light camera. Specifically, in this case, a portion where the temperature suddenly changes is extracted from the infrared image specified by the video data by image processing. Then, the feature amount is calculated from the extracted part, and then the calculated feature amount is collated with the recognition dictionary, whereby the person is detected.

加えて、撮像装置201がToFカメラの場合も、可視光カメラの場合と同様に、認識辞書を用いることによって人物を検知できる。具体的には、この場合は、映像データで特定される距離画像から、隣接する画素間の距離が不連続になっている箇所が抽出される。そして抽出された箇所から特徴量が算出され、その後、算出された特徴量が認識辞書に照合され、それによって、人物が検出される。 In addition, even when the image pickup device 201 is a ToF camera, a person can be detected by using a recognition dictionary as in the case of a visible light camera. Specifically, in this case, a portion where the distance between adjacent pixels is discontinuous is extracted from the distance image specified by the video data. Then, the feature amount is calculated from the extracted part, and then the calculated feature amount is collated with the recognition dictionary, whereby the person is detected.

また、検知部101は、対象を検知すると、地表平面上における対象の位置を特定する。具体的には、まず、飛行体200に固有の3次元座標系、撮像装置201の内部パラメータ、飛行体200に固有の3次元座標系に対する撮像装置201の外部パラメータ、飛行体200の地上高が既知であるとする。この場合、検知部101は、映像中の対象の座標を特定し、特定した座標と上記の既知の情報とを用いて、幾何学計算を実行することによって、映像中の対象の地表上での位置を特定することができる。 Further, when the detection unit 101 detects the target, the detection unit 101 identifies the position of the target on the ground plane. Specifically, first, the three-dimensional coordinate system unique to the flying object 200, the internal parameters of the imaging device 201, the external parameters of the imaging device 201 with respect to the three-dimensional coordinate system unique to the flying object 200, and the ground height of the flying object 200 are described. Suppose it is known. In this case, the detection unit 101 identifies the coordinates of the target in the image, and executes the geometric calculation using the specified coordinates and the above-mentioned known information on the ground surface of the object in the image. The position can be specified.

飛行体200に固有の3次元座標系は、飛行体200の各部の位置を特定するために、飛行体200の内部に設定された座標系であり、あらかじめ設定されていればよい。撮像装置201の内部パラメータ、例えば、焦点距離などは、事前に計測されていればよい。 The three-dimensional coordinate system unique to the air vehicle 200 is a coordinate system set inside the air vehicle 200 in order to specify the position of each part of the air vehicle 200, and may be set in advance. The internal parameters of the image pickup apparatus 201, such as the focal length, may be measured in advance.

飛行体200に固有の3次元座標系に対する撮像装置201の外部パラメータは、例えば、飛行体200に対するレンズの光軸の角度及びレンズの位置等である。撮像装置200の位置及び向きが飛行体200に対して固定されている場合は、この外部パラメータは、事前に計測されていればよい。一方、撮像装置200の位置及び向きが飛行体200に対して可動する場合は、外部パラメータは、事前の計測値と、飛行体200に対する撮像装置200の位置を検知するセンサからの位置情報とを統合して、計算幾何学を実行することによって算出される。 The external parameters of the image pickup device 201 with respect to the three-dimensional coordinate system peculiar to the flying object 200 are, for example, the angle of the optical axis of the lens with respect to the flying object 200, the position of the lens, and the like. When the position and orientation of the image pickup device 200 are fixed with respect to the flying object 200, this external parameter may be measured in advance. On the other hand, when the position and orientation of the image pickup device 200 are movable with respect to the flying object 200, the external parameters include the previously measured value and the position information from the sensor that detects the position of the imaging device 200 with respect to the flying object 200. Calculated by integrating and performing computational geometry.

飛行体200の地上高は、例えば、撮像装置201がToFカメラであるならば、ToFカメラが出力する距離情報に基づいて、飛行体200から地面までの距離を算出することによって計測されていればよい。また、飛行体200が電波高度計などの高度を測定する装置を備えている場合は、飛行体200の地上高は、この装置からの情報によって算出されればよい。 If the image pickup device 201 is a ToF camera, the ground height of the aircraft 200 is measured by calculating the distance from the aircraft 200 to the ground based on the distance information output by the ToF camera, for example. Good. When the flying object 200 is provided with a device for measuring altitude such as a radio altimeter, the ground height of the flying object 200 may be calculated based on the information from this device.

また、検知部101においては、対象の地表上での位置を表現するために座標系が設定される。ここでは、この座標系のことを「地表平面座標系」と呼ぶこととする。本実施の形態1において、地表平面座標系としては、どのような座標系が設定されていてもよく、特に限定されるものではない。 Further, in the detection unit 101, a coordinate system is set in order to express the position of the target on the ground surface. Here, this coordinate system is referred to as a "ground plane coordinate system". In the first embodiment, any coordinate system may be set as the surface plane coordinate system, and the coordinate system is not particularly limited.

具体的には、地表平面座標系としては、設定対象となる飛行体200から地表面に向かって鉛直方向に伸びる垂線と地表面との交わる点を原点とし、飛行体200の正面方向(進行方向)に平行な軸をx軸、x軸に直交する軸をy軸とする、座標系が挙げられる。この座標系は、設定対象となる飛行体200を中心に設定される座標系であり、飛行体200の移動に伴い、原点は時々刻々移動することになる。但し、本実施の形態1においては、飛行体200に対する対象の相対位置を確定できれば、飛行体200の制御を行えるので、この地表平面座標件は、本発明の目的にかなった座標系といえる。 Specifically, as the surface plane coordinate system, the origin is the point where the perpendicular line extending vertically from the flying object 200 to be set toward the ground surface intersects the ground surface, and the front direction (traveling direction) of the flying object 200 is set as the origin. ) Is the x-axis, and the axis orthogonal to the x-axis is the y-axis. This coordinate system is a coordinate system set around the flying object 200 to be set, and the origin moves every moment as the flying object 200 moves. However, in the first embodiment, if the relative position of the target with respect to the flying object 200 can be determined, the flying object 200 can be controlled. Therefore, it can be said that this ground plane coordinate system is a coordinate system suitable for the object of the present invention.

また、地表平面座標系としては、撮像装置201からの映像中に設定された座標系、即ち、画像座標系も挙げられる。また、地表平面座標系としては、GPSなどで用いられるECEF(Earth Centered Earth Fixed)直交座標系などのグローバル座標系も挙げられる。グローバル座標系が用いられる場合は、設定対象となる飛行体200のグローバル座標系における位置と、設定対象となる飛行体200を基準とした対象の相対位置とから、対象のグローバル座標系での位置が算出される。これにより、対象の地表上での位置は、グローバル座標系によって表現されることになる。 Further, as the ground plane coordinate system, a coordinate system set in the image from the image pickup apparatus 201, that is, an image coordinate system can also be mentioned. Further, as the surface plane coordinate system, a global coordinate system such as an ECEF (Earth Centered Earth Fixed) Cartesian coordinate system used in GPS or the like can also be mentioned. When the global coordinate system is used, the position in the global coordinate system of the target from the position in the global coordinate system of the flying object 200 to be set and the relative position of the target with respect to the flying object 200 to be set. Is calculated. As a result, the position of the target on the surface of the earth is represented by the global coordinate system.

落下範囲推定部102は、本実施の形態1では、制御対象となる飛行体200が現時刻に落下を開始した場合に想定される地上の落下範囲を推定する。飛行体200がマルチコプタータイプである場合は、落下時において、飛行体200は滑空することが困難である。このため、図2に示すように、例えば無風の場合は、飛行体200は、その直下に位置する点204を中心とした円205内に落下すると考えられる。従って、この場合、落下範囲推定部102は、円205を落下範囲として推定する。また、円205の半径は、飛行体200の高度に応じて変化することから、落下範囲推定部102は、あらかじめ設定された高度と円205の半径との関係に基づいて、円205の半径を設定する。 In the first embodiment, the fall range estimation unit 102 estimates the fall range on the ground that is assumed when the flight object 200 to be controlled starts falling at the current time. When the flying object 200 is a multicopter type, it is difficult for the flying object 200 to glide when falling. Therefore, as shown in FIG. 2, for example, in the case of no wind, the flying object 200 is considered to fall into the circle 205 centered on the point 204 located immediately below the flying object 200. Therefore, in this case, the fall range estimation unit 102 estimates the circle 205 as the fall range. Further, since the radius of the circle 205 changes according to the altitude of the flying object 200, the fall range estimation unit 102 sets the radius of the circle 205 based on the relationship between the preset altitude and the radius of the circle 205. Set.

また、より実際的には、落下範囲は風の影響を相当に受ける。このため、落下範囲の推定においては、飛行体200の高度に加えて、風の向き及び風速もパラメータとして用いられているのがよい。このため、本実施の形態1においては、落下範囲推定部102が、少なくとも地上からの高度と風速との組み合わせに対する落下範囲をデータベースとしてあらかじめ保持し、データベースを参照して、落下範囲を推定する、のが好ましい。この点について図3及び図4を用いて説明する。 Also, more practically, the fall range is significantly affected by the wind. Therefore, in estimating the fall range, it is preferable that the direction of the wind and the wind speed are used as parameters in addition to the altitude of the flying object 200. Therefore, in the first embodiment, the fall range estimation unit 102 holds at least the fall range for the combination of altitude and wind speed from the ground as a database in advance, and estimates the fall range by referring to the database. Is preferable. This point will be described with reference to FIGS. 3 and 4.

図3は、飛行体と風向きとの関係の一例を示す図である。図4は、風速及び高度に応じた落下範囲の一例を示す図である。図3に示すように、飛行体200が風による影響を受けているとする。この場合、落下範囲推定部102は、風の向きを示す仮想的な矢印を鉛直方向に沿って地上に投影して得られた方向(矢印301で示す方向)を主軸方向に設定し、これに直交する方向(矢印302で示す方向)をサブ軸方向に設定する。 FIG. 3 is a diagram showing an example of the relationship between the flying object and the wind direction. FIG. 4 is a diagram showing an example of a fall range according to the wind speed and altitude. As shown in FIG. 3, it is assumed that the flying object 200 is affected by the wind. In this case, the fall range estimation unit 102 sets a direction (direction indicated by arrow 301) obtained by projecting a virtual arrow indicating the direction of the wind on the ground along the vertical direction as the main axis direction. The orthogonal direction (direction indicated by the arrow 302) is set in the sub-axis direction.

そして、図4に示すように、風速と飛行体200の現在の高度とを、それぞれパラメータとして、両者の様々な組み合わせ毎に、落下範囲401〜403が設定される。設定された落下範囲401〜403は、対応する組み合わせに関連付けられて、データベースとして保持される。 Then, as shown in FIG. 4, the fall ranges 401 to 403 are set for various combinations of the wind speed and the current altitude of the flying object 200 as parameters. The set drop ranges 401 to 403 are associated with the corresponding combinations and are retained as a database.

また、落下範囲推定部102は、データベースを用いる代わりに、風の向き、風速、および飛行体200の高度に基づいて、飛行体200が落下した場合の物理的なシミュレーションを実行して、リアルタイムに落下範囲を算出することもできる。 Further, instead of using the database, the fall range estimation unit 102 executes a physical simulation when the flying object 200 falls based on the direction of the wind, the wind speed, and the altitude of the flying object 200 in real time. The fall range can also be calculated.

また、図3及び図4において、風向き及び風速は、落下開始以前の自律制御が良好に機能していた時点における飛行体200の姿勢制御情報を用いれば、推定することができる。但し、この場合、風向き及び風速は、飛行体200に固有の3次元座標系上で推定されているので、検知部101による対象検知の場合と同様に、落下範囲推定部102は、計算幾何学を用いて地表平面座標系における落下範囲を設定する。 Further, in FIGS. 3 and 4, the wind direction and the wind speed can be estimated by using the attitude control information of the flying object 200 at the time when the autonomous control before the start of the fall was functioning well. However, in this case, since the wind direction and the wind speed are estimated on the three-dimensional coordinate system peculiar to the flying object 200, the fall range estimation unit 102 has the computational geometry as in the case of the target detection by the detection unit 101. Is used to set the fall range in the surface plane coordinate system.

なお、図3及び図4の例では、風向きを示す仮想的な矢印を鉛直方向に沿って地上に投影して得られた方向301が、主軸方向とされる例について説明しているが、無風の場合は、主軸方向が不定となる。しかし、無風の場合は、落下範囲は、飛行体200の現在位置を中心とした同心円状となるため、主軸方向は任意に設定されていても全く問題はない。 In the examples of FIGS. 3 and 4, an example is described in which the direction 301 obtained by projecting a virtual arrow indicating the wind direction onto the ground along the vertical direction is the main axis direction, but there is no wind. In the case of, the spindle direction is indefinite. However, in the case of no wind, the fall range is concentric circles centered on the current position of the flying object 200, so that there is no problem even if the spindle direction is arbitrarily set.

制御部103は、本実施の形態1では、対象の位置と落下範囲とが地表平面座標系で表現されているので、地表平面座標系上で両者が重なっているかどうかを判定する。判定の結果、両者が重なっている場合は、制御部103は、検知部101によって検出された対象が、落下範囲推定部102によって推定された落下範囲内に位置しないように、飛行体200の位置を制御する。具体的には、制御部103は、対象の位置と落下範囲とが重ならないように、モータ駆動部202を介して、各モータ203の出力を調整して、飛行体200に回避運動を行なわせる。 In the first embodiment, the control unit 103 determines whether or not the position of the target and the fall range are represented by the surface plane coordinate system, so that they overlap on the ground plane coordinate system. As a result of the determination, when the two overlap, the control unit 103 positions the flying object 200 so that the target detected by the detection unit 101 does not fall within the fall range estimated by the fall range estimation unit 102. To control. Specifically, the control unit 103 adjusts the output of each motor 203 via the motor drive unit 202 so that the target position and the drop range do not overlap, and causes the flying object 200 to perform an avoidance motion. ..

対象の位置と落下範囲との重なりを避けるために行なわれる飛行体200の主たる回避運動としては、次の2つが挙げられる。1つは、検出した対象が落下範囲内に入らぬよう、飛行体200を水平方向に移動させる回避運動である。もう1つは、検出した対象が落下範囲内に入らぬよう、飛行体200を降下させて高度を下げる回避運動である。 The following two are the main avoidance movements of the flying object 200 performed in order to avoid the overlap between the position of the target and the fall range. One is an avoidance motion that moves the flying object 200 in the horizontal direction so that the detected object does not fall within the fall range. The other is an avoidance motion in which the flying object 200 is lowered to lower the altitude so that the detected target does not fall within the fall range.

前者のメリットは、飛行体200の位置に対する落下範囲の相対位置が基本的に変化しないため、検出した対象が落下範囲内に入らぬように、落下範囲を水平移動させることを考えればよく、制御が容易であるという点である。落下範囲の水平移動する際の方向および距離が、飛行体200を移動させるべき方向および距離に対応することとなる。 The merit of the former is that the relative position of the fall range with respect to the position of the flying object 200 basically does not change, so it is sufficient to consider moving the fall range horizontally so that the detected target does not fall within the fall range. Is easy. The direction and distance for horizontal movement of the fall range correspond to the direction and distance for moving the flying object 200.

後者のメリットは、落下範囲の面積を絞り込んで小さくすることができる点と、万が一落下した場合の衝撃を小さくできる点とである。落下範囲の面積を小さくできる理由は、後者の回避運動を行なうと、飛行体200が地面に到達するまでの落下時間が短くなり、落下時の飛行体200の水平方向への移動量が確実に低下するからである。 The advantage of the latter is that the area of the fall range can be narrowed down to make it smaller, and the impact in the event of a fall can be made smaller. The reason why the area of the fall range can be reduced is that when the latter avoidance motion is performed, the fall time until the flying object 200 reaches the ground is shortened, and the amount of movement of the flying object 200 in the horizontal direction at the time of falling is surely reduced. This is because it decreases.

ここで、図5及び図6を用いて、飛行体の高度を低下させる回避運動のメリットについて具体的に説明する。図5は、地上に存在する人と落下範囲との位置関係の一例を示す図である。図6は、図5に示した状態から飛行体200の高度を下げた場合を示す図である。 Here, with reference to FIGS. 5 and 6, the merits of the avoidance motion for lowering the altitude of the flying object will be specifically described. FIG. 5 is a diagram showing an example of the positional relationship between a person existing on the ground and a fall range. FIG. 6 is a diagram showing a case where the altitude of the flying object 200 is lowered from the state shown in FIG.

図5に示すように、例えば、複数の人502が地上に存在しており、飛行体200が現在の高度に位置している場合は、飛行体200がどのように水平移動しても、落下範囲501内に人502が入ってしまう状態にあるとする。このような状態において、飛行体200に、高度を下げる回避運動を行なわせると、図6に示すように、落下範囲601は、落下範囲501よりも狭くなるので、落下範囲601と人602の位置とを重複させないようにすることができる。 As shown in FIG. 5, for example, when a plurality of people 502 exist on the ground and the flying object 200 is located at the current altitude, the flying object 200 falls no matter how horizontally it moves. It is assumed that the person 502 is in the range 501. In such a state, when the flying object 200 is made to perform an avoidance motion for lowering the altitude, as shown in FIG. 6, the fall range 601 is narrower than the fall range 501, so that the positions of the fall range 601 and the person 602 are located. And can be prevented from overlapping.

[装置動作]
次に、本発明の実施の形態1における飛行体制御装置100の動作について図7を用いて説明する。図7は、本発明の実施の形態1における飛行体制御装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図6を参酌する。また、本実施の形態1では、飛行体制御装置100を動作させることによって、飛行体制御方法が実施される。よって、本実施の形態1における飛行体制御方法の説明は、以下の飛行体制御装置100の動作説明に代える。
[Device operation]
Next, the operation of the flying object control device 100 according to the first embodiment of the present invention will be described with reference to FIG. 7. FIG. 7 is a flow chart showing the operation of the flying object control device according to the first embodiment of the present invention. In the following description, FIGS. 1 to 6 will be referred to as appropriate. Further, in the first embodiment, the flying object control method is implemented by operating the flying object control device 100. Therefore, the description of the flying object control method in the first embodiment is replaced with the following description of the operation of the flying object control device 100.

図7に示すように、最初に、検知部101は、撮像装置201が出力した映像データを取得する(ステップA1)。次に、検知部101は、ステップA1で取得した映像データから、対象を検知する(ステップA2)。また、ステップA2では、検知部101は、映像中の対象の座標に各種パラメータを適用して幾何学計算を実行し、検知した対象の地表平面上における位置を特定する。 As shown in FIG. 7, first, the detection unit 101 acquires the video data output by the image pickup apparatus 201 (step A1). Next, the detection unit 101 detects the target from the video data acquired in step A1 (step A2). Further, in step A2, the detection unit 101 applies various parameters to the coordinates of the target in the image, executes geometric calculation, and specifies the position of the detected target on the ground plane.

次に、落下範囲推定部102は、飛行体200が落下した場合の落下範囲を推定する(ステップA3)。このとき、落下範囲推定部102は、飛行体200が飛行している空域の風の方向及び風速を考慮して、落下範囲を推定する。 Next, the fall range estimation unit 102 estimates the fall range when the flying object 200 falls (step A3). At this time, the fall range estimation unit 102 estimates the fall range in consideration of the wind direction and the wind speed in the airspace where the flying object 200 is flying.

その後、制御部103は、ステップA2で検出した対象とステップA3で推定した落下範囲とが重なっているかどうかを判定し、重なっている場合は、対象が落下範囲に入らないように飛行体200を制御する(ステップA4)。具体的には、制御部103は、飛行体200に、水平方向への移動及び高度の低下のいずれか又は両方の回避運動を行なわせ、対象と落下範囲との重なりを解消する。 After that, the control unit 103 determines whether or not the target detected in step A2 and the fall range estimated in step A3 overlap, and if they do overlap, the flying object 200 is moved so that the target does not fall within the fall range. Control (step A4). Specifically, the control unit 103 causes the flying object 200 to perform avoidance movements of either or both of the movement in the horizontal direction and the decrease in altitude, and eliminates the overlap between the target and the fall range.

なお、ステップA4では、例えば、制御部103は、飛行体200を水平方向に移動するように制御しても、検知された対象の位置と落下範囲との重なりを解消できない場合に、飛行体200の高度が下がるように飛行体200を制御して、検知された対象の位置と落下範囲とが重ならないようにしても良い。 In step A4, for example, when the control unit 103 cannot eliminate the overlap between the detected target position and the fall range even if the control unit 103 controls the flight body 200 to move in the horizontal direction, the flight body 200 The flying object 200 may be controlled so that the altitude of the aircraft 200 is lowered so that the detected position of the target and the fall range do not overlap.

[実施の形態1による効果]
以上のように、本実施の形態1では、飛行体200の運用において、落下によるリスクを低減することが可能となる。本実施の形態1によれば、人が存在する場所及びその付近の空域であっても、飛行体200を低リスクで運用することが可能となる。
[Effect of Embodiment 1]
As described above, in the first embodiment, it is possible to reduce the risk of falling in the operation of the flying object 200. According to the first embodiment, it is possible to operate the flying object 200 with low risk even in the airspace in and near the place where a person exists.

[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図7に示すステップA1〜A4を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における飛行体制御装置100と飛行体制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、検知部101、落下範囲推定部102、及び制御部103として機能し、処理を行なう。
[program]
The program according to the first embodiment may be any program that causes a computer to execute steps A1 to A4 shown in FIG. 7. By installing this program on a computer and executing it, the flying object control device 100 and the flying object control method according to the first embodiment can be realized. In this case, the CPU (Central Processing Unit) of the computer functions as a detection unit 101, a drop range estimation unit 102, and a control unit 103 to perform processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、検知部101、落下範囲推定部102、及び制御部103のいずれかとして機能しても良い。 Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the detection unit 101, the drop range estimation unit 102, and the control unit 103, respectively.

(実施の形態2)
次に、本発明の実施の形態2における、飛行体制御装置、飛行体制御方法、及びプログラムについて、図8及び図9を参照しながら説明する。
(Embodiment 2)
Next, the flying object control device, the flying object control method, and the program according to the second embodiment of the present invention will be described with reference to FIGS. 8 and 9.

[装置構成]
最初に、本実施の形態2における飛行体制御装置の構成について図8を用いて説明する。図8は、本発明の実施の形態2における飛行体制御装置の構成を示すブロック図である。
[Device configuration]
First, the configuration of the flying object control device according to the second embodiment will be described with reference to FIG. FIG. 8 is a block diagram showing a configuration of an air vehicle control device according to a second embodiment of the present invention.

図8に示すように、本実施の形態2における飛行体制御装置120は、図1にも示した、検知部101、落下範囲推定部102、及び制御部103に加えて、移動範囲推定部104を更に備えている。本実施の形態2における飛行体制御装置120は、この点で、図1に示した実施の形態1における飛行体制御装置100と異なっている。以下、実施の形態1との相違点を中心に説明する。 As shown in FIG. 8, the flying object control device 120 according to the second embodiment has a movement range estimation unit 104 in addition to the detection unit 101, the fall range estimation unit 102, and the control unit 103, which are also shown in FIG. Is further equipped. The flying object control device 120 according to the second embodiment is different from the flying object control device 100 according to the first embodiment shown in FIG. 1 in this respect. Hereinafter, the differences from the first embodiment will be mainly described.

移動範囲推定部104は、飛行体200が落下し始めたと仮定した場合に、落下の開始から地上に到達するまでの間に、検知部101によって検知済みの対象が地上において移動する可能性の範囲(以下「予想移動範囲」と表記する。)を推定する。 Assuming that the flying object 200 has begun to fall, the movement range estimation unit 104 has a range in which the target detected by the detection unit 101 may move on the ground between the start of the fall and the arrival at the ground. (Hereinafter referred to as "expected movement range") is estimated.

例えば、飛行体200が現在の時刻から落下し始め、それが地上に到達するまでの時間が5秒、対象である人の走る速さが最大7m/秒と仮定する。この場合は、移動範囲推定部104は、対象である人の存在位置を中心とした半径35mの円形の範囲を、予想移動範囲として推定する。なお、予想移動範囲も、最終的には地表平面座標系で表現される。 For example, it is assumed that the flying object 200 starts to fall from the current time, it takes 5 seconds to reach the ground, and the target person runs at a maximum speed of 7 m / sec. In this case, the movement range estimation unit 104 estimates a circular range with a radius of 35 m centered on the existence position of the target person as the expected movement range. The expected movement range is also finally expressed in the ground plane coordinate system.

また、本実施の形態2では、制御部103は、実施の形態1と異なり、移動範囲推定部104によって、対象について予想移動範囲が推定されると、移動範囲推定部104が推定した予想移動範囲と落下範囲とが重なっているかどうかを判定する。判定の結果、両者が重なっている場合は、制御部103は、両者が重ならないように、飛行体200を制御する。なお、上述したように、予想移動範囲も落下範囲と同様に地表平面座標系で表現されるので、制御部103における重なりの判定は容易なものとなる。 Further, in the second embodiment, unlike the first embodiment, the control unit 103 estimates the expected movement range for the target by the movement range estimation unit 104, and the expected movement range estimated by the movement range estimation unit 104. Determines if and the fall range overlap. As a result of the determination, when the two overlap, the control unit 103 controls the flying object 200 so that the two do not overlap. As described above, since the expected movement range is also expressed in the ground plane coordinate system like the fall range, it is easy for the control unit 103 to determine the overlap.

[装置動作]
次に、本発明の実施の形態2における飛行体制御装置120の動作について図9を用いて説明する。図9は、本発明の実施の形態2における飛行体制御装置の動作を示すフロー図である。以下の説明においては、適宜図8を参酌する。また、本実施の形態2では、飛行体制御装置120を動作させることによって、飛行体制御方法が実施される。よって、本実施の形態2における飛行体制御方法の説明は、以下の飛行体制御装置120の動作説明に代える。
[Device operation]
Next, the operation of the flying object control device 120 according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a flow chart showing the operation of the flying object control device according to the second embodiment of the present invention. In the following description, FIG. 8 will be referred to as appropriate. Further, in the second embodiment, the flying object control method is implemented by operating the flying object control device 120. Therefore, the description of the flying object control method in the second embodiment is replaced with the following description of the operation of the flying object control device 120.

図9に示すように、最初に、検知部101は、撮像装置201が出力した映像データを取得する(ステップB1)。次に、検知部101は、ステップB1で取得した映像データから、対象を検知する(ステップB2)。また、ステップB2では、検知部101は、検知した対象の地表平面上における位置を特定する。なお、ステップB1及びB2は、それぞれ、図7に示したステップA1及びA2と同様のステップである。 As shown in FIG. 9, first, the detection unit 101 acquires the video data output by the image pickup apparatus 201 (step B1). Next, the detection unit 101 detects the target from the video data acquired in step B1 (step B2). Further, in step B2, the detection unit 101 specifies the position of the detected target on the ground plane. Note that steps B1 and B2 are the same steps as steps A1 and A2 shown in FIG. 7, respectively.

次に、移動範囲推定部104は、ステップB2で検知された対象の予想移動範囲を推定する(ステップB3)。具体的には、移動範囲推定部104は、映像データ上で、対象の移動速度を算出し、更に、飛行体200の高度及び速度から、現時点で落下し始めた場合の飛行体200が地上に到達するまでの時間も算出する。そして、移動範囲推定部104は、算出した対象の移動速度と時間とを用いて、予想移動範囲を推定する。 Next, the movement range estimation unit 104 estimates the expected movement range of the target detected in step B2 (step B3). Specifically, the moving range estimation unit 104 calculates the moving speed of the target on the video data, and further, from the altitude and speed of the flying object 200, the flying object 200 when it starts to fall at the present time is on the ground. The time to reach is also calculated. Then, the movement range estimation unit 104 estimates the expected movement range using the calculated movement speed and time of the target.

次に、落下範囲推定部102は、飛行体200が落下した場合の落下範囲を推定する(ステップB4)。その後、制御部103は、ステップB3で推定した予想移動範囲とステップB4で推定した落下範囲とが重なっているかどうかを判定し、重なっている場合は、予想移動範囲と落下範囲とが重ならないように飛行体200を制御する(ステップB5)。具体的には、制御部103は、飛行体200に、水平方向への移動及び高度の低下のいずれか又は両方の回避運動を行なわせ、予想移動範囲と落下範囲との重なりを解消する。なお、ステップB4は、図7に示したステップA3と同様のステップである。 Next, the fall range estimation unit 102 estimates the fall range when the flying object 200 falls (step B4). After that, the control unit 103 determines whether or not the expected movement range estimated in step B3 and the fall range estimated in step B4 overlap, and if they do overlap, the predicted movement range and the fall range do not overlap. Control the flying object 200 (step B5). Specifically, the control unit 103 causes the flying object 200 to perform avoidance movements of either or both of the movement in the horizontal direction and the decrease in altitude, and eliminates the overlap between the expected movement range and the fall range. Note that step B4 is the same step as step A3 shown in FIG.

なお、ステップB5では、例えば、制御部103は、飛行体200を水平方向に移動するように制御しても、検知された対象の位置と落下範囲との重なりを解消できない場合に、飛行体200の高度が下がるように飛行体200を制御して、予想移動範囲と落下範囲とが重ならないようにしても良い。 In step B5, for example, when the control unit 103 cannot eliminate the overlap between the detected target position and the fall range even if the control unit 103 controls the flight body 200 to move in the horizontal direction, the flight body 200 The flying object 200 may be controlled so that the altitude of the aircraft 200 is lowered so that the expected movement range and the fall range do not overlap.

[実施の形態2による効果]
以上のように、本実施の形態2によれば、落下時の飛行体200と対象との衝突をより確実に回避することができるので、飛行体200の運用において、落下によるリスクをよりいっそう低減することが可能となる。
[Effect of Embodiment 2]
As described above, according to the second embodiment, the collision between the flying object 200 and the target at the time of falling can be more reliably avoided, so that the risk due to the falling is further reduced in the operation of the flying object 200. It becomes possible to do.

また、上述の例では、予想移動範囲と落下範囲とが重ならないように飛行体200を制御する例について説明しているが、本実施の形態2は、この例に限定されるものではない。例えば、移動範囲推定部104は、上述の予想移動範囲の代わりに、設定されたエリア毎に、飛行体の落下時における対象の存在確率といった、落下時に飛行体が対象に衝突する可能性を表す数値を算出してもよい。この場合、制御部103は、値が最小値となるエリアに移動するように、飛行体200を制御する。この態様によれば、より多くの人物が存在する場所に飛行体200が落下するリスクを低減させることができ、飛行体200の最適制御が可能となる。 Further, in the above-mentioned example, an example in which the flying object 200 is controlled so that the expected moving range and the falling range do not overlap is described, but the second embodiment is not limited to this example. For example, the movement range estimation unit 104 represents the possibility that the flying object collides with the target at the time of falling, such as the existence probability of the target at the time of falling of the flying body, for each set area instead of the above-mentioned predicted moving range. A numerical value may be calculated. In this case, the control unit 103 controls the flying object 200 so as to move to the area where the value becomes the minimum value. According to this aspect, the risk of the flying object 200 falling to a place where more people exist can be reduced, and the flying object 200 can be optimally controlled.

[プログラム]
本実施の形態2におけるプログラムは、コンピュータに、図9に示すステップB1〜B5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における飛行体制御装置120と飛行体制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、検知部101、落下範囲推定部102、制御部103、及び移動範囲推定部104として機能し、処理を行なう。
[program]
The program according to the second embodiment may be any program that causes a computer to execute steps B1 to B5 shown in FIG. By installing this program on a computer and executing it, the flying object control device 120 and the flying object control method according to the second embodiment can be realized. In this case, the CPU (Central Processing Unit) of the computer functions as a detection unit 101, a drop range estimation unit 102, a control unit 103, and a movement range estimation unit 104, and performs processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、検知部101、落下範囲推定部102、制御部103、及び移動範囲推定部104のいずれかとして機能しても良い。 Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the detection unit 101, the drop range estimation unit 102, the control unit 103, and the movement range estimation unit 104, respectively.

(実施の形態3)
次に、本発明の実施の形態3における、飛行体制御装置、飛行体制御方法、及びプログラムについて、図10及び図11を参照しながら説明する。
(Embodiment 3)
Next, the flying object control device, the flying object control method, and the program according to the third embodiment of the present invention will be described with reference to FIGS. 10 and 11.

[装置構成]
最初に、本実施の形態3における飛行体制御装置の構成について図10を用いて説明する。図10は、本発明の実施の形態3における飛行体制御装置の構成を示すブロック図である。
[Device configuration]
First, the configuration of the flying object control device according to the third embodiment will be described with reference to FIG. FIG. 10 is a block diagram showing a configuration of an air vehicle control device according to a third embodiment of the present invention.

図10に示すように、本実施の形態3における飛行体制御装置130は、図1にも示した、検知部101、落下範囲推定部102、及び制御部103に加えて、落下危険性推定部105をさらに備える。本実施の形態3における飛行体制御装置130は、この点で、図1に示した実施の形態1における飛行体制御装置100と異なっている。以下、実施の形態1との相違点を中心に説明する。 As shown in FIG. 10, the flying object control device 130 according to the third embodiment has a fall risk estimation unit in addition to the detection unit 101, the fall range estimation unit 102, and the control unit 103, which are also shown in FIG. 105 is further provided. The flying object control device 130 according to the third embodiment is different from the flying object control device 100 according to the first embodiment shown in FIG. 1 in this respect. Hereinafter, the differences from the first embodiment will be mainly described.

図10に示すように、落下危険性推定部105は、飛行体200の現在の状況に基づいて、飛行体200が落下する危険性を推測する。具体的には、落下危険性推定部105は、例えば、風速、気流の乱れ、バッテリー残量、遠隔操作用の無線電波の受信状態、モータ203の温度、飛行体制御装置130を構築するコンピュータの温度等を、時々刻々モニタリングし、各項目の値(「モニタリング情報」と表記する)を取得する。 As shown in FIG. 10, the fall risk estimation unit 105 estimates the risk of the flying object 200 falling based on the current situation of the flying object 200. Specifically, the fall risk estimation unit 105 is, for example, the wind speed, the turbulence of the air flow, the remaining battery level, the reception state of the radio wave for remote control, the temperature of the motor 203, and the computer for constructing the flying object control device 130. The temperature, etc. is monitored every moment, and the value of each item (denoted as "monitoring information") is acquired.

そして、モニタリングの対象となっている項目は、それぞれ、その値があるところを超えると落下の危険性を高めるものであるので、項目毎にあらかじめ閾値が設定されている。よって、落下危険性推定部105は、モニタリングの対象となっている各項目について、その値があらかじめ定めた落下の危険性を示す閾値以上となっているかどうかを判定する。 Then, since each item to be monitored increases the risk of falling when the value exceeds a certain value, a threshold value is set in advance for each item. Therefore, the fall risk estimation unit 105 determines whether or not the value of each item to be monitored is equal to or greater than a predetermined threshold value indicating the fall risk.

判定の結果、1項目以上において閾値を超えている場合は、落下危険性推定部105は、落下の危険性が高まっていると判断し、その旨を制御部103に出力する。一方、判定の結果、いずれの項目についても閾値を超えていない場合は、落下危険性推定部105は、現時刻における落下の危険性は低いと判断し、その旨を制御部103に出力する。 As a result of the determination, if one or more items exceed the threshold value, the fall risk estimation unit 105 determines that the fall risk is increasing, and outputs to that effect to the control unit 103. On the other hand, as a result of the determination, if the threshold value is not exceeded for any of the items, the fall risk estimation unit 105 determines that the fall risk at the current time is low, and outputs to that effect to the control unit 103.

制御部103は、落下危険性推定部105が落下の危険性が高いと判断した場合は、検知部101が検出した対象の位置が、落下範囲推定部102が推定した落下範囲と重ならないように、飛行体200を制御する。 When the control unit 103 determines that the fall risk estimation unit 105 has a high risk of falling, the position of the target detected by the detection unit 101 does not overlap with the fall range estimated by the fall range estimation unit 102. , Control the flying object 200.

また、制御部103は、落下危険性推定部105が落下の危険性が少ないと判断した場合は、検知部101が検出した対象の位置が、落下範囲推定部102が推定した落下範囲と重なることを許すこともできる。この場合、制御部103が、飛行体200に回避運動を行なわせることはない。 Further, when the control unit 103 determines that the fall risk estimation unit 105 has a low risk of falling, the position of the target detected by the detection unit 101 overlaps with the fall range estimated by the fall range estimation unit 102. Can also be forgiven. In this case, the control unit 103 does not cause the flying object 200 to perform the avoidance motion.

[装置動作]
次に、本発明の実施の形態3における飛行体制御装置130の動作について図11を用いて説明する。図11は、本発明の実施の形態3における飛行体制御装置の動作を示すフロー図である。以下の説明においては、適宜図10を参酌する。また、本実施の形態3では、飛行体制御装置130を動作させることによって、飛行体制御方法が実施される。よって、本実施の形態3における飛行体制御方法の説明は、以下の飛行体制御装置130の動作説明に代える。
[Device operation]
Next, the operation of the flying object control device 130 according to the third embodiment of the present invention will be described with reference to FIG. FIG. 11 is a flow chart showing the operation of the flying object control device according to the third embodiment of the present invention. In the following description, FIG. 10 will be referred to as appropriate. Further, in the third embodiment, the flying object control method is implemented by operating the flying object control device 130. Therefore, the description of the flying object control method in the third embodiment will be replaced with the following description of the operation of the flying object control device 130.

図11に示すように、最初に、検知部101は、撮像装置201が出力した映像データを取得する(ステップC1)。次に、検知部101は、ステップC1で取得した映像データから、対象を検知する(ステップC2)。また、ステップC2では、検知部101は、検知した対象の地表平面上における位置を特定する。次に、落下範囲推定部102は、飛行体200が落下した場合の落下範囲を推定する(ステップC3)。なお、ステップC1〜C3は、それぞれ、図7に示したステップA1〜A3と同様のステップである。 As shown in FIG. 11, first, the detection unit 101 acquires the video data output by the image pickup apparatus 201 (step C1). Next, the detection unit 101 detects the target from the video data acquired in step C1 (step C2). Further, in step C2, the detection unit 101 specifies the position of the detected target on the ground plane. Next, the fall range estimation unit 102 estimates the fall range when the flying object 200 falls (step C3). Note that steps C1 to C3 are the same steps as steps A1 to A3 shown in FIG. 7, respectively.

次に、落下危険性推定部105は、飛行体200の現在の状況に基づいて、飛行体200が落下する危険性を推測する(ステップC4)。具体的には、ステップC4では、落下危険性推定部105は、常時モニタリングしている各項目について、その値があらかじめ定めた閾値以上となっているかどうかを判定する。落下危険性推定部105は、判定の結果、1項目以上において閾値を超えている場合は、落下の危険性が高まっていると判断し、そうでない場合は、落下の危険性は低いと判断する。 Next, the fall risk estimation unit 105 estimates the risk of the flying object 200 falling based on the current situation of the flying object 200 (step C4). Specifically, in step C4, the fall risk estimation unit 105 determines whether or not the value of each item that is constantly monitored is equal to or higher than a predetermined threshold value. As a result of the determination, the fall risk estimation unit 105 determines that the risk of falling is increased if one or more items exceed the threshold value, and determines that the risk of falling is low otherwise. ..

その後、制御部103は、ステップC4において危険性が高いと判断されているかどうかを確認し、危険性が高いと判断されている場合は、対象が落下範囲に入らないように飛行体200を制御する(ステップC5)。 After that, the control unit 103 confirms whether or not the risk is determined to be high in step C4, and if it is determined to be high, the control unit 103 controls the flying object 200 so that the target does not fall within the fall range. (Step C5).

[実施の形態3による効果]
以上の、本実施の形態3によれば、落下の危険性が小さい場合には、飛行体200は人の上空も飛行できるので、飛行体200による人口密度の高い場所の上空での作業、そうした空域の通過などが可能となる。この結果、飛行体200による作業の効率化が図られることとなる。
[Effect of Embodiment 3]
According to the third embodiment as described above, when the risk of falling is small, the flying object 200 can fly over a person, so that the flying object 200 works in a densely populated place. It is possible to pass through the airspace. As a result, the work efficiency of the flying object 200 can be improved.

また、図12に示すように、本実施の形態3における飛行体制御装置130は、実施の形態2において図8に示した移動範囲推定部104を備えることもできる。この場合は、制御部103は、ステップC4において危険性が高いと判断されたときに、対象の位置及び予想移動範囲のうちのいずれかと落下範囲とが重ならないように飛行体200を制御する。 Further, as shown in FIG. 12, the flying object control device 130 in the third embodiment may include the movement range estimation unit 104 shown in FIG. 8 in the second embodiment. In this case, the control unit 103 controls the flying object 200 so that the fall range does not overlap with any of the target position and the expected movement range when it is determined in step C4 that the risk is high.

[プログラム]
本実施の形態3におけるプログラムは、コンピュータに、図11に示すステップC1〜C5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態3における飛行体制御装置130と飛行体制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、検知部101、落下範囲推定部102、制御部103、及び落下危険性推定部105として機能し、処理を行なう。
[program]
The program according to the third embodiment may be any program that causes the computer to execute steps C1 to C5 shown in FIG. By installing this program on a computer and executing it, the flying object control device 130 and the flying object control method according to the third embodiment can be realized. In this case, the CPU (Central Processing Unit) of the computer functions as a detection unit 101, a fall range estimation unit 102, a control unit 103, and a fall risk estimation unit 105 to perform processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、検知部101、落下範囲推定部102、制御部103、及び落下危険性推定部105のいずれかとして機能しても良い。 Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the detection unit 101, the fall range estimation unit 102, the control unit 103, and the fall risk estimation unit 105, respectively.

(物理構成)
ここで、実施の形態1〜3におけるプログラムを実行することによって、飛行体制御装置を実現するコンピュータについて図13を用いて説明する。図13は、本発明の実施の形態1〜3における飛行体制御装置を実現するコンピュータの一例を示すブロック図である。
(Physical configuration)
Here, a computer that realizes an air vehicle control device by executing the programs according to the first to third embodiments will be described with reference to FIG. FIG. 13 is a block diagram showing an example of a computer that realizes the flying object control device according to the first to third embodiments of the present invention.

図13に示すコンピュータは、飛行体に搭載される組み込みコンピュータである。但し、実施の形態1〜3において、コンピュータは、地上から飛行体とデータ通信を行うコンピュータであっても良い。この場合は、飛行体制御装置は、飛行体とは別の場所に構築されることになる。 The computer shown in FIG. 13 is an embedded computer mounted on the flying object. However, in the first to third embodiments, the computer may be a computer that performs data communication with the flying object from the ground. In this case, the flying object control device will be constructed in a place different from the flying object.

図13に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、通信インターフェイス114とを備える。これらの各部は、バス115を介して、互いにデータ通信可能に接続される。 As shown in FIG. 13, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, and a communication interface 114. Each of these parts is connected to each other via a bus 115 so as to be capable of data communication.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。 The CPU 111 expands the programs (codes) of the present embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various operations.

記憶装置113の具体例としては、フラッシュメモリ等の半導体記憶装置が挙げられる。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。通信インターフェイス114は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 Specific examples of the storage device 113 include a semiconductor storage device such as a flash memory. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). The communication interface 114 mediates data transmission between the CPU 111 and another computer.

本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体116に格納された状態で提供される。記録媒体116の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。なお、本実施の形態におけるプログラムは、通信インターフェイス114を介して提供されていても良い。 The program according to this embodiment is provided in a state of being stored in a computer-readable recording medium 116. Specific examples of the recording medium 116 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as flexible disks, and CD-ROMs (CD-ROMs). Examples include optical storage media such as Compact Disk Read Only Memory). The program in this embodiment may be provided via the communication interface 114.

なお、本実施の形態における飛行体制御装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、飛行体制御装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The flying object control device in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the air vehicle control device may be partially realized by a program and the rest may be realized by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記18)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 18), but the present invention is not limited to the following description.

(付記1)
飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、検知部と、
前記飛行体の落下範囲を推定する、落下範囲推定部と、
検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、制御部と、
を備えることを特徴とする飛行体制御装置。
(Appendix 1)
A detector that detects the target from the video data output by the image pickup device that captures the lower part of the aircraft.
A fall range estimation unit that estimates the fall range of the flying object,
A control unit that controls the flying object so that the detected position of the target and the fall range do not overlap with each other.
An air vehicle control device characterized by being provided with.

(付記2)
前記落下範囲推定部は、前記飛行体の地上からの高度と、風の向きおよび風速を特定する風情報とに基づいて、前記落下範囲を推定する、
付記1に記載の飛行体制御装置。
(Appendix 2)
The fall range estimation unit estimates the fall range based on the altitude of the flying object from the ground and wind information that specifies the direction and speed of the wind.
The flying object control device according to Appendix 1.

(付記3)
前記落下範囲推定部は、少なくとも地上からの高度と風速との組み合わせに対する落下範囲をデータベースとしてあらかじめ保持し、前記データベースを参照して、前記落下範囲を推定する、
付記2に記載の飛行体制御装置。
(Appendix 3)
The fall range estimation unit holds at least a fall range for a combination of altitude and wind speed from the ground as a database in advance, and estimates the fall range with reference to the database.
The flying object control device according to Appendix 2.

(付記4)
検知された前記対象が、前記飛行体が落下を開始してから地上に到達するまでの間に、地上において移動する可能性のある範囲を予想移動範囲として推定する、移動範囲推定部をさらに備え、
前記制御部は、推定された前記予想移動範囲と前記落下範囲とが重ならないように前記飛行体を制御する、
付記1に記載の飛行体制御装置。
(Appendix 4)
Further provided with a movement range estimation unit that estimates the range in which the detected target may move on the ground from the start of the fall to the arrival at the ground as the expected movement range. ,
The control unit controls the flying object so that the estimated expected movement range and the fall range do not overlap.
The flying object control device according to Appendix 1.

(付記5)
前記制御部は、前記飛行体を水平方向に移動するように制御しても、検知された前記対象の位置と前記落下範囲との重なりを解消できない場合、前記飛行体の高度が下がるように前記飛行体を制御して、検知された前記対象の位置と前記落下範囲とが重ならないようにする、
付記1に記載の飛行体制御装置。
(Appendix 5)
If the control unit cannot eliminate the overlap between the detected position of the target and the fall range even if the control unit controls the flying object to move in the horizontal direction, the control unit reduces the altitude of the flying object. Control the flying object so that the detected position of the target and the fall range do not overlap.
The flying object control device according to Appendix 1.

(付記6)
前記飛行体の状況に基づいて、前記飛行体が落下する危険性を推測する、落下危険性推定部をさらに備え、
前記制御部は、推測された前記危険性があらかじめ定めた水準を超える場合に、検知された前記対象の位置及び前記予想移動範囲のうちいずれかと前記落下範囲とが重ならないように前記飛行体を制御する、
付記4に記載の飛行体制御装置。
(Appendix 6)
Further provided with a fall risk estimation unit that estimates the risk of the flying object falling based on the situation of the flying object.
When the estimated danger exceeds a predetermined level, the control unit sets the flying object so that one of the detected target position and the predicted movement range does not overlap with the fall range. Control,
The flying object control device according to Appendix 4.

(付記7)
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、ステップと、
(b)前記飛行体の落下範囲を推定する、ステップと、
(c)検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、ステップと、
を有することを特徴とする飛行体制御方法。
(Appendix 7)
(A) A step of detecting an object from the video data output by the image pickup device that captures the lower part of the flying object.
(B) A step for estimating the fall range of the flying object, and
(C) A step of controlling the flying object so that the detected position of the target and the falling range do not overlap with each other.
A flying object control method characterized by having.

(付記8)
前記(b)のステップにおいて、前記飛行体の地上からの高度と、風の向きおよび風速を特定する風情報とに基づいて、前記落下範囲を推定する、
付記7に記載の飛行体制御方法。
(Appendix 8)
In step (b), the fall range is estimated based on the altitude of the flying object from the ground and the wind information that specifies the direction and speed of the wind.
The flying object control method according to Appendix 7.

(付記9)
前記(b)のステップにおいて、少なくとも地上からの高度と風速との組み合わせに対する落下範囲をデータベースとしてあらかじめ保持し、前記データベースを参照して、前記落下範囲を推定する、
付記8に記載の飛行体制御方法。
(Appendix 9)
In step (b), the fall range for at least the combination of altitude and wind speed from the ground is stored in advance as a database, and the fall range is estimated with reference to the database.
The flying object control method according to Appendix 8.

(付記10)
(d)検知された前記対象が、前記飛行体が落下を開始してから地上に到達するまでの間に、地上において移動する可能性のある範囲を予想移動範囲として推定する、ステップをさらに有し、
前記(c)のステップにおいて、推定された前記予想移動範囲と前記落下範囲とが重ならないように前記飛行体を制御する、
付記7に記載の飛行体制御方法。
(Appendix 10)
(D) Further, there is a step of estimating the range in which the detected target may move on the ground from the start of the fall to the arrival at the ground as the expected movement range. And
In step (c), the flying object is controlled so that the estimated expected movement range and the fall range do not overlap.
The flying object control method according to Appendix 7.

(付記11)
前記(c)のステップにおいて、前記飛行体を水平方向に移動するように制御しても、検知された前記対象の位置と前記落下範囲との重なりを解消できない場合、前記飛行体の高度が下がるように前記飛行体を制御して、検知された前記対象の位置と前記落下範囲とが重ならないようにする、
付記7に記載の飛行体制御方法。
(Appendix 11)
In the step (c), if the overlap between the detected position of the target and the fall range cannot be eliminated even if the flying object is controlled to move in the horizontal direction, the altitude of the flying object is lowered. The flying object is controlled so that the detected position of the target and the falling range do not overlap with each other.
The flying object control method according to Appendix 7.

(付記12)
(e)前記飛行体の状況に基づいて、前記飛行体が落下する危険性を推測する、ステップをさらに有し、
前記(c)のステップにおいて、推測された前記危険性があらかじめ定めた水準を超える場合に、検知された前記対象の位置及び前記予想移動範囲のうちいずれかと前記落下範囲とが重ならないように前記飛行体を制御する、
付記10に記載の飛行体制御方法。
(Appendix 12)
(E) Further having a step of estimating the risk of the flying object falling based on the situation of the flying object.
In the step (c), when the estimated risk exceeds a predetermined level, the fall range is not overlapped with any of the detected target position and the expected movement range. Control the flying object,
The flying object control method according to Appendix 10.

(付記13)
コンピュータに、
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、対象を検知する、ステップと、
(b)前記飛行体の落下範囲を推定する、ステップと、
(c)検知された前記対象の位置と前記落下範囲とが重ならないように前記飛行体を制御する、ステップと、
を実行させるプログラム。
(Appendix 13)
On the computer
(A) A step of detecting an object from the video data output by the image pickup device that captures the lower part of the flying object.
(B) A step for estimating the fall range of the flying object, and
(C) A step of controlling the flying object so that the detected position of the target and the falling range do not overlap with each other.
A program that executes.

(付記14)
前記(b)のステップにおいて、前記飛行体の地上からの高度と、風の向きおよび風速を特定する風情報とに基づいて、前記落下範囲を推定する、
付記13に記載のプログラム。
(Appendix 14)
In step (b), the fall range is estimated based on the altitude of the flying object from the ground and the wind information that specifies the direction and speed of the wind.
The program described in Appendix 13.

(付記15)
前記(b)のステップにおいて、少なくとも地上からの高度と風速との組み合わせに対する落下範囲をデータベースとしてあらかじめ保持し、前記データベースを参照して、前記落下範囲を推定する、
付記14に記載のプログラム。
(Appendix 15)
In step (b), the fall range for at least the combination of altitude and wind speed from the ground is stored in advance as a database, and the fall range is estimated with reference to the database.
The program described in Appendix 14.

(付記16)
前記コンピュータに、
(d)検知された前記対象が、前記飛行体が落下を開始してから地上に到達するまでの間に、地上において移動する可能性のある範囲を予想移動範囲として推定する、ステップをさらに実行させ、
前記(c)のステップにおいて、推定された前記予想移動範囲と前記落下範囲とが重ならないように前記飛行体を制御する、
付記13に記載のプログラム。
(Appendix 16)
On the computer
(D) Further execution of the step of estimating the range in which the detected target may move on the ground from the start of the fall to the arrival at the ground as the expected movement range. Let me
In step (c), the flying object is controlled so that the estimated expected movement range and the fall range do not overlap.
The program described in Appendix 13.

(付記17)
前記(c)のステップにおいて、前記飛行体を水平方向に移動するように制御しても、検知された前記対象の位置と前記落下範囲との重なりを解消できない場合、前記飛行体の高度が下がるように前記飛行体を制御して、検知された前記対象の位置と前記落下範囲とが重ならないようにする、
付記13に記載のプログラム。
(Appendix 17)
In the step (c), if the overlap between the detected position of the target and the fall range cannot be eliminated even if the flying object is controlled to move in the horizontal direction, the altitude of the flying object is lowered. The flying object is controlled so that the detected position of the target and the falling range do not overlap with each other.
The program described in Appendix 13.

(付記18)
前記コンピュータに、
(e)前記飛行体の状況に基づいて、前記飛行体が落下する危険性を推測する、ステップをさら実行させ、
前記(c)のステップにおいて、推測された前記危険性があらかじめ定めた水準を超える場合に、検知された前記対象の位置及び前記予想移動範囲のうちいずれかと前記落下範囲とが重ならないように前記飛行体を制御する、
付記16に記載のプログラム。
(Appendix 18)
On the computer
(E) Based on the situation of the flying object, the step of estimating the risk of the flying object falling is further executed.
In the step (c), when the estimated risk exceeds a predetermined level, the fall range is not overlapped with any of the detected target position and the expected movement range. Control the flying object,
The program according to Appendix 16.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.

この出願は、2015年8月25日に出願された日本出願特願2015−165850を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2015-165850 filed on August 25, 2015, the entire disclosure of which is incorporated herein by reference.

以上のように、本発明によれば、UAVといった飛行体を、人が存在する場所及びその付近の空域においても、低いリスクで運用することができる。本発明は、種々の飛行体に有用である。 As described above, according to the present invention, an air vehicle such as a UAV can be operated with a low risk even in an airspace where a person exists and in the vicinity thereof. The present invention is useful for various flying objects.

100 飛行体制御装置
101 検知部
102 落下範囲推定部
103 制御部
104 移動範囲推定部
105 落下危険性推定部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 通信インターフェイス
115 バス
116 記録媒体
200 飛行体
201 撮像装置
202 モータ駆動部
203 モータ
204 飛行体の直下に位置する点
205 落下範囲となる円
206 対象(人)
301 風の向きを示す仮想的な矢印を地上に投影して得られた方向(主軸方向)
302 主軸方向に直交する方向(サブ軸方向)
401、402、403 風速および高度の組み合せ毎に設定された落下範囲
501 人の存在位置と重なりのある落下範囲
502 人
601 人の存在位置と重なりのない落下範囲
602 人
100 Flying object control device 101 Detection unit 102 Fall range estimation unit 103 Control unit 104 Movement range estimation unit 105 Fall risk estimation unit 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Communication interface 115 Bus 116 Recording medium 200 Air vehicle 201 Imaging device 202 Motor drive unit 203 Motor 204 Point located directly under the air vehicle 205 Fall range circle 206 Target (person)
301 Direction obtained by projecting a virtual arrow indicating the direction of the wind on the ground (main axis direction)
302 Direction orthogonal to the main axis direction (sub-axis direction)
401, 402, 403 Fall range set for each combination of wind speed and altitude 501 Fall range that overlaps with the position of people 502 people 601 Fall range that does not overlap with the position of people 602

Claims (9)

赤外線検知装置を有し、飛行体の下方を撮影する撮像装置が出力した映像データから、機械学習手法を用いて、対象を検知する、検知部と、
前記検知部により検出された前記対象の位置と前記飛行体の着地範囲とが重ならないように前記飛行体を制御する、制御部と、
を備えることを特徴とする飛行体制御装置。
A detector that detects an object using a machine learning method from the video data output by an image pickup device that has an infrared detection device and captures the lower part of the flying object.
A control unit that controls the air vehicle so that the position of the target detected by the detection unit and the landing range of the air vehicle do not overlap with each other.
An air vehicle control device characterized by being provided with.
請求項1に記載の飛行体制御装置であって、
前記飛行体の地上からの高度と、風の向きおよび風速を特定する風情報と、に基づいて、前記落下範囲を推定する落下範囲推定部、
を備える、飛行体制御装置。
The flying object control device according to claim 1.
A fall range estimation unit that estimates the fall range based on the altitude of the flying object from the ground and wind information that specifies the direction and speed of the wind.
A flying object control device.
請求項2に記載の飛行体制御装置であって、
前記落下範囲推定部は、少なくとも地上からの高度と風速との組み合わせに対する落下範囲をデータベースとしてあらかじめ保持し、前記データベースを参照して、前記落下範囲を推定する、
飛行体制御装置。
The flying object control device according to claim 2.
The fall range estimation unit holds at least a fall range for a combination of altitude and wind speed from the ground as a database in advance, and estimates the fall range with reference to the database.
Aircraft control device.
請求項1から3のいずれか一つに記載の飛行体制御装置であって、
検知された前記対象が、前記飛行体が落下を開始してから地上に到達するまでの間に、地上において移動する可能性のある範囲を予想移動範囲として推定する、移動範囲推定部、
をさらに備え、
前記制御部は、推定された前記予想移動範囲と前記落下範囲とが重ならないように前記飛行体を制御する、
飛行体制御装置。
The flying object control device according to any one of claims 1 to 3.
The movement range estimation unit, which estimates the range in which the detected target may move on the ground between the time when the flying object starts falling and the time when it reaches the ground, is estimated as the expected movement range.
With more
The control unit controls the flying object so that the estimated expected movement range and the fall range do not overlap.
Aircraft control device.
請求項1から4のいずれか一つに記載の飛行体制御装置であって、
前記移動範囲推定部は、前記検知部により検知された対象の移動速度を算出する、
飛行体制御装置。
The flying object control device according to any one of claims 1 to 4.
The movement range estimation unit calculates the movement speed of the target detected by the detection unit.
Aircraft control device.
請求項1から5のいずれか一つに記載の飛行体制御装置であって、
前記制御部は、前記飛行体を水平方向に移動するように制御しても、検知された前記対象の位置と前記落下範囲との重なりを解消できない場合、前記飛行体の高度が下がるように前記飛行体を制御して、検知された前記対象の位置と前記落下範囲とが重ならないようにする、
飛行体制御装置。
The flying object control device according to any one of claims 1 to 5.
If the control unit cannot eliminate the overlap between the detected position of the target and the fall range even if the control unit controls the flying object to move in the horizontal direction, the control unit reduces the altitude of the flying object. Control the flying object so that the detected position of the target and the fall range do not overlap.
Aircraft control device.
請求項4に記載の飛行体制御装置であって、
前記飛行体の状況に基づいて、前記飛行体が落下する危険性を推測する、落下危険性推定部をさらに備え、
前記制御部は、推測された前記危険性があらかじめ定めた水準を超える場合に、検知された前記対象の位置及び前記予想移動範囲のうちいずれかと前記落下範囲とが重ならないように前記飛行体を制御する、
飛行体制御装置。
The flying object control device according to claim 4.
Further provided with a fall risk estimation unit that estimates the risk of the flying object falling based on the situation of the flying object.
When the estimated danger exceeds a predetermined level, the control unit sets the flying object so that one of the detected target position and the predicted movement range does not overlap with the fall range. Control,
Aircraft control device.
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、機械学習手法を用いて対象を検知する、ステップと、
(b)前記対象の位置と前記飛行体の着地範囲とが重ならないように前記飛行体を制御する、ステップと、
を有することを特徴とする飛行体制御方法。
(A) A step of detecting an object by using a machine learning method from the video data output by an imaging device that captures the lower part of the flying object.
(B) A step of controlling the flying object so that the position of the target and the landing range of the flying object do not overlap with each other.
A flying object control method characterized by having.
コンピュータに、
(a)飛行体の下方を撮影する撮像装置が出力した映像データから、機械学習手法を用いて対象を検知する、ステップと、
(b)前記対象の位置と前記飛行体の着地範囲とが重ならないように前記飛行体を制御
する、ステップと、
を実行させるプログラム。
On the computer
(A) A step of detecting an object by using a machine learning method from the video data output by an imaging device that captures the lower part of the flying object.
(B) A step of controlling the flying object so that the position of the target and the landing range of the flying object do not overlap with each other.
A program that executes.
JP2021036547A 2015-08-25 2021-03-08 Flying body control device, flying body control method and program Pending JP2021093215A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023072016A JP7456537B2 (en) 2015-08-25 2023-04-26 Aircraft control device, aircraft control method, and program
JP2024035858A JP2024053085A (en) 2015-08-25 2024-03-08 Aircraft control device, aircraft control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015165850 2015-08-25
JP2015165850 2015-08-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017536465A Division JP6852672B2 (en) 2015-08-25 2016-08-24 Aircraft control device, air vehicle control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023072016A Division JP7456537B2 (en) 2015-08-25 2023-04-26 Aircraft control device, aircraft control method, and program

Publications (1)

Publication Number Publication Date
JP2021093215A true JP2021093215A (en) 2021-06-17

Family

ID=58100318

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017536465A Active JP6852672B2 (en) 2015-08-25 2016-08-24 Aircraft control device, air vehicle control method, and program
JP2021036547A Pending JP2021093215A (en) 2015-08-25 2021-03-08 Flying body control device, flying body control method and program
JP2023072016A Active JP7456537B2 (en) 2015-08-25 2023-04-26 Aircraft control device, aircraft control method, and program
JP2024035858A Pending JP2024053085A (en) 2015-08-25 2024-03-08 Aircraft control device, aircraft control method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017536465A Active JP6852672B2 (en) 2015-08-25 2016-08-24 Aircraft control device, air vehicle control method, and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023072016A Active JP7456537B2 (en) 2015-08-25 2023-04-26 Aircraft control device, aircraft control method, and program
JP2024035858A Pending JP2024053085A (en) 2015-08-25 2024-03-08 Aircraft control device, aircraft control method, and program

Country Status (2)

Country Link
JP (4) JP6852672B2 (en)
WO (1) WO2017033976A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341565B1 (en) 2022-12-20 2023-09-11 株式会社amuse oneself Aircraft and control method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688680B2 (en) * 2015-10-14 2020-04-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Unmanned aerial vehicle and flight control method
JP6791365B2 (en) * 2017-03-31 2020-11-25 日本電気株式会社 Information processing equipment, information processing methods, and information processing programs
US20210147075A1 (en) * 2017-06-30 2021-05-20 Nec Corporation Landing apparatus, landing control method, and landing control program
JP6371895B1 (en) * 2017-10-31 2018-08-08 株式会社WorldLink & Company How to measure wind conditions
JP6521045B1 (en) * 2017-12-26 2019-05-29 東京電力ホールディングス株式会社 Unmanned air vehicle crash notification system, ground station, notification method, and program
JP7030571B2 (en) * 2018-03-13 2022-03-07 Kddi株式会社 Flight management system
JP2019207597A (en) * 2018-05-30 2019-12-05 川崎重工業株式会社 Target identification device and specific operation apparatus comprising the same
WO2020040105A1 (en) * 2018-08-22 2020-02-27 日本電気株式会社 Selection device, selection method, and selection program
JP7260281B2 (en) * 2018-10-25 2023-04-18 株式会社Nttドコモ Information processing equipment
US10859346B2 (en) * 2018-10-31 2020-12-08 Fortem Technologies, Inc. System and method of managing a projectile module on a flying device
JP6735424B1 (en) * 2019-03-04 2020-08-05 東光鉄工株式会社 Recognition markers and air vehicles
WO2021039387A1 (en) * 2019-08-26 2021-03-04 ソニー株式会社 Control device, control method, uncrewed flight vehicle, information processing device, information processing method, and program
JP7044147B2 (en) * 2020-11-05 2022-03-30 日本電気株式会社 Information processing equipment, information processing methods, and information processing programs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032519A (en) * 2000-07-17 2002-01-31 Fuji Heavy Ind Ltd Drop supporting device
JP2014199548A (en) * 2013-03-29 2014-10-23 綜合警備保障株式会社 Flight control system and flight control method
JP2015143966A (en) * 2013-07-25 2015-08-06 株式会社リコー Image processor, solid object detection method, solid object detection program, and moving object control system
JP2015188150A (en) * 2014-03-26 2015-10-29 株式会社衛星ネットワーク Aerial imaging video distribution system and aerial imaging video distribution method
JP2016147565A (en) * 2015-02-12 2016-08-18 株式会社amuse oneself Flight body

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3019071B2 (en) * 1998-02-16 2000-03-13 日本電気株式会社 Intrusion / collision prediction apparatus and method, and recording medium recording intrusion / collision prediction program
JP4020293B2 (en) 2001-11-19 2007-12-12 富士重工業株式会社 Method and apparatus for evaluating results of spraying of flying object by flying object
JP2017056904A (en) 2015-09-18 2017-03-23 アイシン・エィ・ダブリュ株式会社 Control system, control method and control program of unmanned flight vehicle
JP6791365B2 (en) 2017-03-31 2020-11-25 日本電気株式会社 Information processing equipment, information processing methods, and information processing programs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032519A (en) * 2000-07-17 2002-01-31 Fuji Heavy Ind Ltd Drop supporting device
JP2014199548A (en) * 2013-03-29 2014-10-23 綜合警備保障株式会社 Flight control system and flight control method
JP2015143966A (en) * 2013-07-25 2015-08-06 株式会社リコー Image processor, solid object detection method, solid object detection program, and moving object control system
JP2015188150A (en) * 2014-03-26 2015-10-29 株式会社衛星ネットワーク Aerial imaging video distribution system and aerial imaging video distribution method
JP2016147565A (en) * 2015-02-12 2016-08-18 株式会社amuse oneself Flight body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341565B1 (en) 2022-12-20 2023-09-11 株式会社amuse oneself Aircraft and control method

Also Published As

Publication number Publication date
WO2017033976A1 (en) 2017-03-02
JP2023090817A (en) 2023-06-29
JP6852672B2 (en) 2021-03-31
JP7456537B2 (en) 2024-03-27
JP2024053085A (en) 2024-04-12
JPWO2017033976A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
JP7456537B2 (en) Aircraft control device, aircraft control method, and program
JP7465615B2 (en) Smart aircraft landing
US11604479B2 (en) Methods and system for vision-based landing
TWI784102B (en) Method, processing device and non-transitory processor readable storage medium for operating or use in a robot vehicle
TWI817962B (en) Method, robotic vehicle, and processing device of adjustable object avoidance proximity threshold based on predictability of the environment
TWI731283B (en) Aerial robotic vehicle, processing device and method of operating the same
EP3735623B1 (en) Adjustable object avoidance proximity threshold based on presence of propeller guard(s)
WO2017081898A1 (en) Flight control device, flight control method, and computer-readable recording medium
US20130253733A1 (en) Computing device and method for controlling unmanned aerial vehicle in flight space
JP6140458B2 (en) Autonomous mobile robot
JP6014485B2 (en) Autonomous flying robot
US11014650B2 (en) Moving body, moving body control system, moving body control method, interface device, and recording medium having program recorded thereon
WO2017038891A1 (en) Flight control device, flight control method, and computer-readable recording medium
JP6014484B2 (en) Autonomous mobile robot
JP2020518500A (en) Vehicle surveillance system and method for detecting external objects
CN108778931B (en) Rotation control method and control equipment of camera device and aircraft
JP2017182691A (en) Autonomous flight robot
WO2022176446A1 (en) Flight vehicle, control method, and program
WO2021187110A1 (en) Moving object, information processing device, information processing method, and program
JP6909668B2 (en) Flight management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131