JP2021157493A - Autonomous flying object and flight control method - Google Patents

Autonomous flying object and flight control method Download PDF

Info

Publication number
JP2021157493A
JP2021157493A JP2020056971A JP2020056971A JP2021157493A JP 2021157493 A JP2021157493 A JP 2021157493A JP 2020056971 A JP2020056971 A JP 2020056971A JP 2020056971 A JP2020056971 A JP 2020056971A JP 2021157493 A JP2021157493 A JP 2021157493A
Authority
JP
Japan
Prior art keywords
obstacle
flight
distance
wall surface
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020056971A
Other languages
Japanese (ja)
Other versions
JP7450431B2 (en
Inventor
美次 青山
Mitsugu Aoyama
美次 青山
明 佐藤
Akira Sato
明 佐藤
一徳 佐藤
Kazunori Sato
一徳 佐藤
弘宜 三井
Hiroyoshi Mitsui
弘宜 三井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Holdings Inc
NTT Data Group Corp
Original Assignee
NTT Data Corp
Tokyo Electric Power Co Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, Tokyo Electric Power Co Holdings Inc filed Critical NTT Data Corp
Priority to JP2020056971A priority Critical patent/JP7450431B2/en
Publication of JP2021157493A publication Critical patent/JP2021157493A/en
Application granted granted Critical
Publication of JP7450431B2 publication Critical patent/JP7450431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To enable an autonomous flying object to perform an autonomous flight in an environment that a wall surface is present.SOLUTION: A drone 1 comprises: a wall surface detection unit by which a point where an obstacle whose distance to the drone 1 is within an obstacle distance is determined to be present in directions at 90 degrees at right and left sides with respect to a flight direction is defined as an obstacle continuance starting point, the obstacle is detected in an intermittent manner so as to get closer to the obstacle in the flight direction, it is determined whether or not the distance to the drone 1 is increased gradually as the distance to the drone 1 is within the obstacle distance and a detection direction gets closer to the flight direction, a point where the distance to the drone 1 is equal to the obstacle distance is defined as an obstacle continuance ending point, and a space from the obstacle continuance starting point to the obstacle continuance ending point is detected as a wall surface; and a flight direction determination unit by which a direction connecting the obstacle continuance ending point and a point where the distance to the drone 1 is equal to the obstacle distance, in a direction in which the wall surface is not detected, between the direction at 90 degrees at the right and left sides, and bisecting a circular arc around the drone 1 is determined as a new flight direction of the drone 1.SELECTED DRAWING: Figure 4

Description

本開示は、自律飛行体及び飛行制御方法に関する。 The present disclosure relates to autonomous vehicles and flight control methods.

自律飛行を行うドローン等の自律飛行体は、測域センサ、電子コンパス、GNSS(Global Navigation Satellite System:全地球航法衛星システム)受信器などの各種センサが検出した情報に基づく飛行制御をすることにより、自律飛行を実現している。特に、電子コンパスが地磁気を検出して自律飛行体自身の機首方向を特定し、GNSS受信機が測位衛星からの電波信号を受信して自律飛行体自身の地球上における位置を特定することにより、精度の高い自律飛行が実現される。 Autonomous flying objects such as drones that perform autonomous flight control flight based on information detected by various sensors such as range sensors, electronic compasses, and GNSS (Global Navigation Satellite System) receivers. , Realizes autonomous flight. In particular, the electronic compass detects the geomagnetism to identify the nose direction of the autonomous vehicle itself, and the GNSS receiver receives the radio signal from the positioning satellite to identify the position of the autonomous vehicle itself on the earth. , Highly accurate autonomous flight is realized.

例えば特許文献1には、電子コンパスとGPS(Global Positioning System:全地球測位システム)受信器と備え、自律飛行が可能なマルチコプターが開示されている。 For example, Patent Document 1 discloses a multicopter capable of autonomous flight, including an electronic compass and a GPS (Global Positioning System) receiver.

特許第6661136号公報Japanese Patent No. 6661136

上記の自律飛行体は、地下トンネルなど、測位衛星からの電波を正常に受信できない環境下、電子コンパスが正常に地磁気を検出できない環境下において、正常に自律飛行ができないという問題がある。 The above-mentioned autonomous flying object has a problem that it cannot normally fly autonomously in an environment where radio waves from positioning satellites cannot be normally received, such as an underground tunnel, and in an environment where an electronic compass cannot normally detect geomagnetism.

例えば、送電線を収容する地下トンネルに撮像装置を搭載した自律飛行体を送り込んで、人員を輸送することなく送電線の状態を確認したい、といった要求がある。しかし、地下トンネルでは測位衛星からの電波を受信できない可能性が高く、かつ、送電線から生じる磁気により電子コンパスも正常に地磁気を検出できない可能性が高い。そのため、このような地下トンネルにおいては、上記の自律飛行体は正常に自律飛行できない可能性が高い。 For example, there is a demand for sending an autonomous vehicle equipped with an image pickup device into an underground tunnel that houses a power transmission line and checking the condition of the power transmission line without transporting personnel. However, there is a high possibility that the underground tunnel cannot receive radio waves from the positioning satellite, and there is a high possibility that the electronic compass cannot normally detect the geomagnetism due to the magnetism generated from the transmission line. Therefore, in such an underground tunnel, there is a high possibility that the above-mentioned autonomous flying object cannot normally fly autonomously.

このため、送電線を収容する地下トンネルのような環境下での自律飛行を実現するには、測位衛星、地磁気に頼らずに自律飛行を行う技術が必要となる。一方、地下トンネルのような環境下では、壁面が存在するため、壁面への衝突を回避するための技術も必要となる。したがって、壁面の存在する環境下においては、壁面への衝突を回避するための技術が必要とされている。 Therefore, in order to realize autonomous flight in an environment such as an underground tunnel that accommodates power transmission lines, technology for autonomous flight without relying on positioning satellites and geomagnetism is required. On the other hand, in an environment such as an underground tunnel, a wall surface exists, so a technique for avoiding a collision with the wall surface is also required. Therefore, in an environment where a wall surface exists, a technique for avoiding a collision with the wall surface is required.

本開示の目的は、上記の事情に鑑み、壁面の存在する環境下において自律飛行を可能とする自立飛行体等を提供することにある。 An object of the present disclosure is to provide an autonomous flying object or the like capable of autonomous flight in an environment where a wall surface exists in view of the above circumstances.

上記の目的を達成するため、本開示の第1の観点に係る自律飛行体は、
自律飛行体であって、
前記自律飛行体の周囲の障害物を検出する測域センサと、
前記測域センサによる検出結果に基づいて環境地図を作成する地図作成手段と、
前記環境地図上における前記自律飛行体の飛行方向を推定する推定手段と
前記飛行方向に対して左右90度となる方向に前記自律飛行体との距離が予め定められた障害距離以内となる障害物が存在するかを判定する障害物判定手段と、
前記障害物判定手段が、前記自律飛行体との距離が前記障害距離以内となる障害物が存在すると判定した場合、前記障害物判定手段により障害物が存在すると判定した地点を障害物存続開始点とし、前記飛行方向に近づくように継続的に前記測域センサによる障害物の検出を行い、前記自律飛行体との距離が予め定められた障害距離以内かつ前記測域センサによる検出の検出方向が前記飛行方向に近づくほど前記自律飛行体との距離が漸増するかを判定し、前記自律飛行体との距離が前記障害距離となる地点を障害物存続終了点として、前記障害物存続開始点から前記障害物存続終了点までを連続した壁面として検出する壁面検出手段と、
前記壁面検出手段により前記壁面を検出したとき、前記左右90度となる方向のうち前記壁面が検出されなかった方向にある前記自律飛行体までの距離が前記障害距離となる地点と前記障害物存続終了点とを結び前記自律飛行体を中心とする円弧を二分する方向を、前記自律飛行体の新たな飛行方向として決定する飛行方向決定手段と、
前記飛行方向決定手段により決定された前記新たな飛行方向に基づいて前記自律飛行体の飛行を制御する飛行制御手段と、
を備える。
In order to achieve the above object, the autonomous vehicle according to the first aspect of the present disclosure is
It ’s an autonomous aircraft,
A range sensor that detects obstacles around the autonomous vehicle and
A map creation means for creating an environmental map based on the detection result of the range sensor, and
An obstacle in which the distance between the estimation means for estimating the flight direction of the autonomous vehicle on the environmental map and the autonomous vehicle in the direction 90 degrees to the left and right of the flight direction is within a predetermined obstacle distance. Obstacle determination means to determine if there is
When the obstacle determination means determines that there is an obstacle whose distance to the autonomous flying object is within the obstacle distance, the point where the obstacle determination means determines that the obstacle exists is the obstacle survival start point. Then, the obstacle is continuously detected by the range sensor so as to approach the flight direction, and the distance to the autonomous flying object is within a predetermined obstacle distance and the detection direction of the detection by the range sensor is set. It is determined whether the distance to the autonomous flying object gradually increases as it approaches the flight direction, and the point where the distance to the autonomous flying object becomes the obstacle distance is set as the obstacle survival end point, and from the obstacle survival start point. A wall surface detecting means for detecting the obstacle survival end point as a continuous wall surface, and
When the wall surface is detected by the wall surface detecting means, the distance to the autonomous flying object in the direction in which the wall surface is not detected in the direction of 90 degrees to the left and right is the obstacle distance and the obstacle persistence. A flight direction determining means that connects the end point and determines the direction that divides the arc centered on the autonomous vehicle into two as a new flight direction of the autonomous vehicle.
A flight control means for controlling the flight of the autonomous vehicle based on the new flight direction determined by the flight direction determining means, and a flight control means.
To be equipped.

前記推定手段はさらに、前記環境地図上における前記自律飛行体の位置を推定し、
前記推定手段が推定した前記位置を擬似的な緯度と経度と高度とにより表した擬似測位情報を求める擬似測位手段と、
予め定められた前記自律飛行体の飛行計画を、前記擬似測位情報と、前記新たな飛行方向とに基づいて修正する飛行計画修正手段と、
をさらに備え、
前記飛行制御手段は、前記飛行計画修正手段により修正された前記飛行計画に基づいて決定された、前記自律飛行体が飛行移動すべき位置へ飛行するよう前記自律飛行体の飛行を制御する、
ものであってもよい。
The estimating means further estimates the position of the autonomous vehicle on the environmental map and
Pseudo-positioning means for obtaining pseudo-positioning information in which the position estimated by the estimation means is represented by pseudo-latitude, longitude, and altitude.
A flight plan correction means for correcting a predetermined flight plan of the autonomous vehicle based on the pseudo-positioning information and the new flight direction.
With more
The flight control means controls the flight of the autonomous vehicle so that the autonomous vehicle flies to a position where it should fly, which is determined based on the flight plan modified by the flight plan correction means.
It may be a thing.

前記壁面検出手段は、前記自律飛行体が飛行する地下トンネルの地図を示す情報に基づいて、前記障害距離を可変に設定する、
ものであってもよい。
The wall surface detecting means variably sets the obstacle distance based on the information indicating the map of the underground tunnel to which the autonomous vehicle flies.
It may be a thing.

上記の目的を達成するため、本開示の第2の観点に係る飛行制御方法は、
自律飛行体の飛行を制御する飛行制御方法であって、
前記自律飛行体の周囲の障害物を検出して環境地図を作成し、
前記環境地図上における前記自律飛行体の飛行方向を推定し、
前記飛行方向に対して左右90度となる方向に前記自律飛行体との距離が予め定められた障害距離以内となる障害物が存在するかを判定し、
前記自律飛行体との距離が前記障害距離以内となる障害物が存在すると判定した場合、障害物が存在すると判定した地点を障害物存続開始点とし、前記飛行方向に近づくように継続的に障害物の検出を行い、前記自律飛行体との距離が予め定められた障害距離以内かつ検出方向が前記飛行方向に近づくほど前記自律飛行体との距離が漸増するかを判定し、前記自律飛行体との距離が前記障害距離となる地点を障害物存続終了点として、前記障害物存続開始点から前記障害物存続終了点までを連続した壁面として検出し、
前記壁面を検出したとき、前記左右90度となる方向のうち前記壁面が検出されなかった方向にある前記自律飛行体までの距離が前記障害距離となる地点と前記障害物存続終了点とを結び前記自律飛行体を中心とする円弧を二分する方向を、前記自律飛行体の新たな飛行方向として決定し、
決定された前記新たな飛行方向に基づいて前記自律飛行体の飛行を制御する。
In order to achieve the above object, the flight control method according to the second aspect of the present disclosure is
It is a flight control method that controls the flight of autonomous vehicles.
Detect obstacles around the autonomous aircraft, create an environmental map, and
The flight direction of the autonomous vehicle on the environmental map is estimated, and the flight direction is estimated.
It is determined whether or not there is an obstacle whose distance to the autonomous flying object is within a predetermined obstacle distance in a direction 90 degrees to the left or right with respect to the flight direction.
When it is determined that there is an obstacle whose distance to the autonomous flying object is within the obstacle distance, the point where it is determined that the obstacle exists is set as the obstacle survival start point, and the obstacle is continuously approached in the flight direction. An object is detected, and it is determined whether the distance to the autonomous flying object gradually increases as the distance to the autonomous flying object is within a predetermined obstacle distance and the detection direction approaches the flight direction. The point where the distance from the obstacle is the obstacle distance is detected as the obstacle survival end point, and the obstacle survival start point to the obstacle survival end point is detected as a continuous wall surface.
When the wall surface is detected, the point where the distance to the autonomous flying object in the direction in which the wall surface is not detected out of the directions of 90 degrees to the left and right becomes the obstacle distance and the obstacle survival end point are connected. The direction that bisects the arc centered on the autonomous vehicle is determined as the new flight direction of the autonomous vehicle.
The flight of the autonomous vehicle is controlled based on the determined new flight direction.

本開示によれば、壁面の存在する環境下において自律飛行体による自律飛行が可能となる。 According to the present disclosure, autonomous flight by an autonomous flying object is possible in an environment where a wall surface exists.

本開示の実施の形態に係るドローンの構成を示す図The figure which shows the structure of the drone which concerns on embodiment of this disclosure. 本開示の実施の形態に係る飛行予定地図の一例を示す図The figure which shows an example of the flight schedule map which concerns on embodiment of this disclosure. 本開示の実施の形態に係るコンパニオンコンピュータの機能的構成を示す図The figure which shows the functional structure of the companion computer which concerns on embodiment of this disclosure. 本開示の実施の形態に係るドローンによる壁面判定の一例を説明する図The figure explaining an example of the wall surface determination by the drone which concerns on embodiment of this disclosure. 本開示の実施の形態に係るフライトコントローラの機能的構成を示す図The figure which shows the functional configuration of the flight controller which concerns on embodiment of this disclosure. 本開示の実施の形態に係るドローンによる飛行制御の動作の一例を示すフローチャートA flowchart showing an example of the operation of flight control by the drone according to the embodiment of the present disclosure. 図6における、本開示の実施の形態に係るドローンが備えるコンパニオンコンピュータの壁面検出部による壁面検出の動作の一例を示すフローチャートFIG. 6 is a flowchart showing an example of the operation of wall surface detection by the wall surface detection unit of the companion computer included in the drone according to the embodiment of the present disclosure. 図6における、本開示の実施の形態に係るドローンが備えるフライトコントローラによる飛行制御の動作の一例を示すフローチャートFIG. 6 is a flowchart showing an example of flight control operation by the flight controller included in the drone according to the embodiment of the present disclosure. 本開示の実施の形態の変形例1に係るコンパニオンコンピュータの機能的構成を示す図The figure which shows the functional structure of the companion computer which concerns on the modification 1 of the Embodiment of this disclosure.

以下、図面を参照しながら、本開示に係る自律飛行体をドローンに適用した実施の形態を説明する。各図面においては、同一又は同等の部分に同一の符号を付す。 Hereinafter, embodiments in which the autonomous vehicle according to the present disclosure is applied to a drone will be described with reference to the drawings. In each drawing, the same or equivalent parts are designated by the same reference numerals.

(実施の形態)
図1を参照しながら、実施の形態に係るドローン1を説明する。後述するように、ドローン1は、送電線を収容する地下トンネルのような、壁面が存在し、かつ測位衛星からの電波を正常に受信できず電子コンパスが正常に地磁気を検出できない環境下において自律飛行が可能な自律飛行体である。詳細は後述するが、ドローン1は、地下トンネル内の壁面を検出し、検出した壁面と、擬似的な磁束密度及び擬似的な測位情報とに基づいて自律飛行を行う。送電線を収容する地下トンネルでは、測位衛星から正常に電波を受信することも、地磁気を正常に検出することもできないことが想定されるので、ドローン1は、衛星測位及び地磁気検出に依らずに自律飛行を行う。
(Embodiment)
The drone 1 according to the embodiment will be described with reference to FIG. As will be described later, the drone 1 is autonomous in an environment where there is a wall surface such as an underground tunnel accommodating a power transmission line, radio waves from a positioning satellite cannot be normally received, and the electronic compass cannot normally detect the geomagnetism. It is an autonomous flying object that can fly. Although the details will be described later, the drone 1 detects the wall surface in the underground tunnel and performs autonomous flight based on the detected wall surface, the pseudo magnetic flux density, and the pseudo positioning information. Since it is assumed that the underground tunnel accommodating the transmission line cannot normally receive radio waves from the positioning satellite and normally detect the geomagnetism, the drone 1 does not rely on satellite positioning and geomagnetism detection. Perform autonomous flight.

ドローン1は、コンパニオンコンピュータ2とフライトコントローラ3と測域センサ4と駆動部7とを備える。コンパニオンコンピュータ2は、測域センサ4及びフライトコントローラ3に通信可能に接続されている。フライトコントローラ3は、コンパニオンコンピュータ2及び駆動部7に通信可能に接続されている。ドローン1は、本開示に係る自律飛行体の一例である。 The drone 1 includes a companion computer 2, a flight controller 3, a range sensor 4, and a drive unit 7. The companion computer 2 is communicably connected to the range sensor 4 and the flight controller 3. The flight controller 3 is communicably connected to the companion computer 2 and the drive unit 7. Drone 1 is an example of an autonomous vehicle according to the present disclosure.

なお、ドローン1は、上記のほか、ジャイロセンサ、加速度センサ、気圧センサなどの各種センサを備えてもよい。 In addition to the above, the drone 1 may be provided with various sensors such as a gyro sensor, an acceleration sensor, and a barometric pressure sensor.

コンパニオンコンピュータ2は、例えばドローン1に内蔵可能な一般的なマイクロコントローラである。コンパニオンコンピュータ2は、バスB2を介して互いに接続された、プロセッサ201と、メモリ202と、インタフェース203と、二次記憶装置204と、を備える。 The companion computer 2 is, for example, a general microcontroller that can be incorporated in the drone 1. The companion computer 2 includes a processor 201, a memory 202, an interface 203, and a secondary storage device 204, which are connected to each other via the bus B2.

プロセッサ201は、例えばCPU(Central Processing Unit:中央演算装置)である。プロセッサ201が、二次記憶装置204に記憶された動作プログラムをメモリ202に読み込んで実行することにより、後述する各機能部の機能が実現される。 The processor 201 is, for example, a CPU (Central Processing Unit). When the processor 201 reads the operation program stored in the secondary storage device 204 into the memory 202 and executes it, the functions of the functional units described later are realized.

メモリ202は、例えば、RAM(Random Access Memory)により構成される主記憶装置である。メモリ202は、プロセッサ201が二次記憶装置204から読み込んだ動作プログラムを記憶する。また、メモリ202は、プロセッサ201が動作プログラムを実行する際のワークメモリとして機能する。 The memory 202 is, for example, a main storage device configured by a RAM (Random Access Memory). The memory 202 stores the operation program read from the secondary storage device 204 by the processor 201. Further, the memory 202 functions as a work memory when the processor 201 executes an operation program.

インタフェース203は、例えばGPIO(General-purpose input/output)、シリアルポート、USB(Universal Serial Bus)ポート、ネットワークインタフェースなどのI/O(input/output)インタフェースである。インタフェース203に測域センサ4及びフライトコントローラ3が接続されることにより、コンパニオンコンピュータ2は測域センサ4及びフライトコントローラ3に通信可能に接続される。 The interface 203 is an I / O (input / output) interface such as a GPIO (General-purpose input / output), a serial port, a USB (Universal Serial Bus) port, and a network interface. By connecting the range sensor 4 and the flight controller 3 to the interface 203, the companion computer 2 is communicably connected to the range sensor 4 and the flight controller 3.

二次記憶装置204は、例えばフラッシュメモリである。二次記憶装置204は、プロセッサ201が実行する動作プログラムを記憶する。また、二次記憶装置204は、後述の飛行計画データも記憶する。例えば、ドローン1のユーザが予めパーソナルコンピュータ上で飛行計画データを作成し、インタフェース203に当該パーソナルコンピュータを接続して飛行計画データをコンパニオンコンピュータ2に転送することにより、飛行計画データが二次記憶装置204に保存される。 The secondary storage device 204 is, for example, a flash memory. The secondary storage device 204 stores an operation program executed by the processor 201. The secondary storage device 204 also stores flight plan data, which will be described later. For example, a user of the drone 1 creates flight plan data on a personal computer in advance, connects the personal computer to the interface 203, and transfers the flight plan data to the companion computer 2, so that the flight plan data is stored in the secondary storage device. It is stored in 204.

図2に示す例を参照しながら、飛行計画データについて説明する。飛行計画データは、例えばドローン1のユーザが、地図上にて始点と1以上の経由点と終点とを指定して飛行ルートを設定することにより作成される。図2に示す例は、地下トンネルを示す地図上において、始点と1つの経由点と終点とを指定することにより、ドローン1が地下トンネル内をどのような飛行ルートにて飛行すべきかを指定する例である。図2に示す例では、始点、経由点及び終点は、緯度、経度及び高度の組により示されている。フライトコントローラ3は、飛行制御において緯度、経度及び高度にて表された情報を利用するため、飛行計画データにおける各点も緯度、経度及び高度にて表現されている。 The flight plan data will be described with reference to the example shown in FIG. Flight plan data is created, for example, by a user of drone 1 designating a start point, one or more waypoints, and an end point on a map and setting a flight route. The example shown in FIG. 2 specifies the flight route through which the drone 1 should fly in the underground tunnel by designating the start point, one waypoint, and the end point on the map showing the underground tunnel. This is an example. In the example shown in FIG. 2, the start point, waypoint and end point are indicated by a set of latitude, longitude and altitude. Since the flight controller 3 uses information represented by latitude, longitude and altitude in flight control, each point in the flight plan data is also represented by latitude, longitude and altitude.

再び図1を参照する。フライトコントローラ3は、例えばマイクロコントローラにより構成されるフライトコントローラである。フライトコントローラ3として、例えば市販のフライトコントローラを採用することができる。フライトコントローラ3は、コンパニオンコンピュータ2と同様に、バスB3を介して互いに接続された、プロセッサ301と、メモリ302と、インタフェース303と、二次記憶装置304と、を備える。また、二次記憶装置304は、フライトコントローラ3の動作プログラムとして、ドライバプログラムP31と飛行プログラムP32とを備える。 See FIG. 1 again. The flight controller 3 is a flight controller composed of, for example, a microcontroller. As the flight controller 3, for example, a commercially available flight controller can be adopted. Like the companion computer 2, the flight controller 3 includes a processor 301, a memory 302, an interface 303, and a secondary storage device 304, which are connected to each other via a bus B3. Further, the secondary storage device 304 includes a driver program P31 and a flight program P32 as an operation program of the flight controller 3.

プロセッサ301は、例えばCPUである。プロセッサ301が、二次記憶装置304に記憶されたドライバプログラムP31及び飛行プログラムP32をメモリ302に読み込んで実行することにより、後述する各機能部の機能が実現される。 The processor 301 is, for example, a CPU. When the processor 301 reads the driver program P31 and the flight program P32 stored in the secondary storage device 304 into the memory 302 and executes them, the functions of the functional units described later are realized.

メモリ302は、例えば、RAMにより構成される主記憶装置である。メモリ302は、プロセッサ301が二次記憶装置304から読み込んだ動作プログラムを記憶する。また、メモリ302は、プロセッサ301がドライバプログラムP31及び飛行プログラムP32を実行する際のワークメモリとして機能する。 The memory 302 is, for example, a main storage device composed of a RAM. The memory 302 stores an operation program read from the secondary storage device 304 by the processor 301. Further, the memory 302 functions as a work memory when the processor 301 executes the driver program P31 and the flight program P32.

インタフェース303は、例えばGPIO、シリアルポート、USBポート、ネットワークインタフェースなどのI/Oインタフェースである。インタフェース303にコンパニオンコンピュータ2及び駆動部7が接続されることにより、フライトコントローラ3はコンパニオンコンピュータ2及び駆動部7に通信可能に接続される。 The interface 303 is an I / O interface such as a GPIO, a serial port, a USB port, or a network interface. By connecting the companion computer 2 and the drive unit 7 to the interface 303, the flight controller 3 is communicably connected to the companion computer 2 and the drive unit 7.

二次記憶装置304は、例えばフラッシュメモリである。前述のとおり、二次記憶装置304は、プロセッサ301が実行する動作プログラムとしてドライバプログラムP31及び飛行プログラムP32を記憶する。ドローン1の製造者は、ドライバプログラムP31を作成して二次記憶装置204に保存することができる。つまり、ドローン1の製造者は、自身がドライバプログラムP31を作成して保存することにより、後述する各機能部のうち一部の機能部の機能を実現できる。詳細は後述するが、コンパニオンコンピュータ2の各機能と、ドローン1の製造者が作成したドライバプログラムP31とにより、地下トンネルにおいてドローン1の自律飛行を実現できる。 The secondary storage device 304 is, for example, a flash memory. As described above, the secondary storage device 304 stores the driver program P31 and the flight program P32 as the operation programs executed by the processor 301. The manufacturer of the drone 1 can create the driver program P31 and store it in the secondary storage device 204. That is, the manufacturer of the drone 1 can realize the functions of some of the functional units described later by creating and saving the driver program P31 by himself / herself. Although the details will be described later, the autonomous flight of the drone 1 can be realized in the underground tunnel by each function of the companion computer 2 and the driver program P31 created by the manufacturer of the drone 1.

測域センサ4は、ドローン1の周囲の障害物を検出し、検出した障害物の相対位置(ドローン1の現在位置を基準とした距離及び方向)を示す情報をコンパニオンコンピュータ2に出力する。測域センサ4は、例えば水平方向の周囲360度にある障害物を検知可能なLiDAR(Light Detection and RangingもしくはLaser Imaging Detection and Ranging)である。測域センサ4は、本開示に係る測域センサの一例である。 The range sensor 4 detects an obstacle around the drone 1 and outputs information indicating the relative position of the detected obstacle (distance and direction with respect to the current position of the drone 1) to the companion computer 2. The range sensor 4 is, for example, LiDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) capable of detecting an obstacle at a circumference of 360 degrees in the horizontal direction. The range sensor 4 is an example of the range sensor according to the present disclosure.

駆動部7は、フライトコントローラ3による制御に基づいて揚力を発生させ、ドローン1を飛行させる。駆動部7は、例えばESC(Electric Speed Controller)とモータとプロペラとを備える。例えば、ドローン1が4つのプロペラを備えるマルチコプターであるとき、駆動部7はESCとモータとプロペラとの組を4組備える。 The drive unit 7 generates lift based on the control by the flight controller 3 to fly the drone 1. The drive unit 7 includes, for example, an ESC (Electric Speed Controller), a motor, and a propeller. For example, when the drone 1 is a multicopter equipped with four propellers, the drive unit 7 includes four sets of an ESC, a motor, and a propeller.

次に、図3を参照しながら、コンパニオンコンピュータ2のプロセッサ201が動作プログラムを実行したときにおける、コンパニオンコンピュータ2の機能的構成を説明する。コンパニオンコンピュータ2は、機能的構成として、地図作成部21と推定部22と機首方向出力部23と擬似測位部24と壁面検出部26と飛行方向決定部27と飛行計画修正部28と飛行指令部25とを備える。 Next, with reference to FIG. 3, the functional configuration of the companion computer 2 when the processor 201 of the companion computer 2 executes the operation program will be described. The companion computer 2 has a map creation unit 21, an estimation unit 22, a nose direction output unit 23, a pseudo positioning unit 24, a wall surface detection unit 26, a flight direction determination unit 27, a flight plan correction unit 28, and a flight command as functional configurations. A unit 25 is provided.

地図作成部21は、測域センサ4が検出した障害物の相対位置に基づいて環境地図を作成する。地図作成部21は、後述の推定部22とともに、SLAM(Simultaneous Localization and Mapping)を行う。地図作成部21は、例えば、初めに環境地図を作成する際には、任意の方向を暫定的に「北」と定めて環境地図を作成する。地図作成部21は、作成した環境地図と、飛行計画データが示す地図とを対比して、暫定的に「北」と定めた方向を適宜修正する。地図作成部21は、本開示に係る地図作成手段の一例である。 The map creation unit 21 creates an environmental map based on the relative position of the obstacle detected by the range sensor 4. The map creation unit 21 performs SLAM (Simultaneous Localization and Mapping) together with the estimation unit 22 described later. For example, when the map creation unit 21 first creates an environmental map, the map creation unit 21 provisionally defines an arbitrary direction as "north" and creates the environmental map. The map creation unit 21 compares the created environmental map with the map indicated by the flight plan data, and appropriately corrects the direction tentatively defined as "north". The map creation unit 21 is an example of the map creation means according to the present disclosure.

推定部22は、地図作成部21が作成した環境地図に基づいて、環境地図上におけるドローン1の位置、飛行方向及び機首方向を推定する。環境地図上におけるドローン1の位置は、例えば飛行開始時におけるドローン1の位置を原点としたときの相対座標にて表現される。環境地図上における飛行方向及び機首方向は、例えば環境地図上における位置の変化に基づいて推定される。推定部22は、前述の地図作成部21とともにSLAMを行う。推定部22は、本開示に係る推定手段の一例である。 The estimation unit 22 estimates the position, flight direction, and nose direction of the drone 1 on the environment map based on the environment map created by the map creation unit 21. The position of the drone 1 on the environmental map is represented by, for example, relative coordinates when the position of the drone 1 at the start of flight is taken as the origin. The flight direction and nose direction on the environmental map are estimated based on, for example, changes in position on the environmental map. The estimation unit 22 performs SLAM together with the map creation unit 21 described above. The estimation unit 22 is an example of the estimation means according to the present disclosure.

機首方向出力部23は、推定部22が推定した環境地図上における機首方向を示す機首方向情報を、フライトコントローラ3に出力する。機首方向情報は、後述するフライトコントローラ3の擬似コンパス部31により処理されるため、図3では機首方向出力部23から擬似コンパス部31に出力されるように図示している。 The nose direction output unit 23 outputs the nose direction information indicating the nose direction on the environment map estimated by the estimation unit 22 to the flight controller 3. Since the nose direction information is processed by the pseudo compass unit 31 of the flight controller 3, which will be described later, FIG. 3 is shown so that the nose direction information is output from the nose direction output unit 23 to the pseudo compass unit 31.

擬似測位部24は、推定部22が推定した環境地図上におけるドローン1の位置を擬似的な緯度と経度と高度とにより表した擬似測位情報を求め、求めた擬似測位情報をフライトコントローラ3に出力する。フライトコントローラ3は、緯度、経度及び高度にて表された測位情報に基づいてドローン1の飛行制御を行うので、擬似測位部24はそれに合わせて、擬似的な測位情報を出力する。つまり、擬似測位部24は、擬似的な衛星測位モジュールとして機能する。擬似測位情報は、後述するフライトコントローラ3の出力部33により処理されるため、図3では擬似測位部24から出力部33に出力されるように図示している。擬似測位部24は、本開示に係る擬似測位手段の一例である。 The pseudo-positioning unit 24 obtains pseudo-positioning information representing the position of the drone 1 on the environment map estimated by the estimation unit 22 by pseudo latitude, longitude, and altitude, and outputs the obtained pseudo-positioning information to the flight controller 3. do. Since the flight controller 3 controls the flight of the drone 1 based on the positioning information represented by the latitude, longitude and altitude, the pseudo positioning unit 24 outputs the pseudo positioning information accordingly. That is, the pseudo positioning unit 24 functions as a pseudo satellite positioning module. Since the pseudo-positioning information is processed by the output unit 33 of the flight controller 3, which will be described later, FIG. 3 is shown so that the pseudo-positioning information is output from the pseudo-positioning unit 24 to the output unit 33. The pseudo-positioning unit 24 is an example of the pseudo-positioning means according to the present disclosure.

上述したように、二次記憶装置204に保存された飛行計画データにおいては、始点、経由点及び終点の各点が緯度、経度及び高度にて表されている。また、上述したように、環境地図上においては、例えば飛行開始時におけるドローン1の位置が原点となっている。したがって、飛行計画データにおける始点の緯度及び経度と、環境地図上における原点とが対応する。そのため、擬似測位部24は、環境地図上におけるドローン1の位置を、緯度及び経度にて擬似的に表すことができる。ただし、一般的には、ドローン1が移動するにつれて、擬似的に表した緯度及び経度と、現実の緯度及び経度とにズレが生じる。後述するように、後述の壁面検出部26による検出結果に基づいて飛行方向を修正し、修正した飛行方向に基づいて飛行計画を修正することにより、このズレに対応する。なお、高度については、擬似測位部24は、例えば飛行計画データにおける各点の高度により表してもよいし、図示しない気圧センサが検出した気圧に基づいて高度を求めてもよい。 As described above, in the flight plan data stored in the secondary storage device 204, each point of the start point, the waypoint, and the end point is represented by latitude, longitude, and altitude. Further, as described above, on the environmental map, for example, the position of the drone 1 at the start of flight is the origin. Therefore, the latitude and longitude of the starting point in the flight plan data correspond to the origin on the environmental map. Therefore, the pseudo-positioning unit 24 can pseudo-represent the position of the drone 1 on the environmental map in latitude and longitude. However, in general, as the drone 1 moves, the latitude and longitude represented in a pseudo manner and the actual latitude and longitude deviate from each other. As will be described later, this deviation is dealt with by correcting the flight direction based on the detection result by the wall surface detection unit 26 described later and correcting the flight plan based on the corrected flight direction. The altitude may be expressed by the altitude of each point in the flight plan data, for example, or the altitude may be obtained based on the atmospheric pressure detected by the atmospheric pressure sensor (not shown).

壁面検出部26は、測域センサ4を制御して、ドローン1の飛行方向に対して左右90度となる方向にドローン1との距離が予め定められた障害距離以内となる障害物が存在するかを判定する。壁面検出部26は、ドローン1との距離が障害距離以内となる障害物が存在すると判定した場合、障害物が存在すると判定した地点を障害物存続開始点とし、飛行方向に近づくように継続的に測域センサ4による障害物の検出を行う。壁面検出部26は、ドローン1との距離が予め定められた障害距離以内かつ測域センサ4による検出の検出方向が飛行方向に近づくほどドローン1との距離が漸増するかを判定する。壁面検出部26は、ドローン1との距離が障害距離となる地点を障害物存続終了点として、障害物存続開始点から障害物存続終了点までを、連続した壁面として検出する。壁面検出部26は、本開示に係る障害物判定手段及び壁面検出手段の一例である。以下、図4を参照しながら具体的に説明する。 The wall surface detection unit 26 controls the range sensor 4, and there is an obstacle whose distance to the drone 1 is within a predetermined obstacle distance in a direction 90 degrees to the left and right with respect to the flight direction of the drone 1. Is determined. When the wall surface detection unit 26 determines that there is an obstacle whose distance from the drone 1 is within the obstacle distance, the wall surface detection unit 26 sets the point where the obstacle is determined to exist as the obstacle survival start point and continuously approaches the flight direction. Obstacles are detected by the range sensor 4. The wall surface detection unit 26 determines whether the distance to the drone 1 gradually increases as the distance to the drone 1 is within a predetermined obstacle distance and the detection direction detected by the range sensor 4 approaches the flight direction. The wall surface detection unit 26 detects a point where the distance from the drone 1 is an obstacle distance as an obstacle survival end point, and detects from the obstacle survival start point to the obstacle survival end point as a continuous wall surface. The wall surface detecting unit 26 is an example of the obstacle determination means and the wall surface detecting means according to the present disclosure. Hereinafter, a specific description will be given with reference to FIG.

図4に示す例では、図面上における上方向(図4における「飛行方向(修正前)」)が現在のドローン1の飛行方向である。また、図4に示す例では、ドローン1の飛行方向に対して右90度となる方向には連続する壁面が存在し、左90度となる方向には壁面が存在しない。 In the example shown in FIG. 4, the upward direction on the drawing (“flying direction (before correction)” in FIG. 4) is the current flight direction of the drone 1. Further, in the example shown in FIG. 4, there is a continuous wall surface in the direction 90 degrees to the right and no wall surface in the direction 90 degrees to the left with respect to the flight direction of the drone 1.

壁面検出部26は、まず、測域センサ4を制御して、飛行方向に対して左右90度となる方向に障害物の検出を行う。壁面検出部26は、検出した障害物が障害距離以内に存在するか否かを判定する。障害距離は、例えば1.5メートルである。なお、地下トンネルの幅は、例えば5メートル程度が想定されており、左右90度方向ともに障害距離以内に壁面が存在することはないものとする。図4に示す例では、飛行方向に対して右90度となる方向については障害距離以内に障害物が存在し、飛行方向に対して左90度となる方向については障害距離以内には障害物が存在しない。壁面検出部26は、飛行方向に対して右90度となる方向に存在する障害物が存在する地点を、障害物存続開始点とする。 The wall surface detection unit 26 first controls the range sensor 4 to detect obstacles in a direction 90 degrees to the left and right with respect to the flight direction. The wall surface detection unit 26 determines whether or not the detected obstacle exists within the obstacle distance. The obstacle distance is, for example, 1.5 meters. The width of the underground tunnel is assumed to be, for example, about 5 meters, and it is assumed that there is no wall surface within the obstacle distance in both the left and right 90 degree directions. In the example shown in FIG. 4, an obstacle exists within the obstacle distance in the direction 90 degrees to the right with respect to the flight direction, and an obstacle within the obstacle distance in the direction 90 degrees to the left with respect to the flight direction. Does not exist. The wall surface detection unit 26 sets a point where an obstacle existing in a direction 90 degrees to the right with respect to the flight direction exists as an obstacle survival start point.

次に、壁面検出部26は、検出方向を、障害距離以内に障害物が存在する方向である右90度となる方向から少し飛行方向(図面上における上方向)に近づけ、再び測域センサ4による障害物の検出を試みる。図4に示す例において、測域センサ4は、再び障害距離以内に存在する障害物を検出する。ただし、ドローン1から検出した障害物までの距離は、先ほど検出したときの距離よりも増加している。つまり、ドローン1から検出した障害物までの距離が漸増している。壁面検出部26は、このような動作を、障害物との距離が障害距離を超えるか、漸増しなくなるまで繰り返す。 Next, the wall surface detection unit 26 brings the detection direction slightly closer to the flight direction (upward on the drawing) from the direction of 90 degrees to the right, which is the direction in which the obstacle exists within the obstacle distance, and again the range sensor 4 Attempt to detect obstacles by. In the example shown in FIG. 4, the range sensor 4 again detects an obstacle existing within the obstacle distance. However, the distance from the drone 1 to the detected obstacle is larger than the distance when it was detected earlier. That is, the distance from the drone 1 to the detected obstacle is gradually increasing. The wall surface detection unit 26 repeats such an operation until the distance to the obstacle exceeds the obstacle distance or does not gradually increase.

図4に示す例では、飛行方向に対して右90度となる方向から右45度となる方向までが、障害物との距離が障害距離以内かつ障害物との距離が漸増する範囲である。図4に示す例では、飛行方向に対して右45度となる方向に存在する障害物との距離がちょうど障害距離となる地点であり、壁面検出部26は、この地点を障害物存続終了点とする。壁面検出部26は、障害物存続開始点から障害物存続終了点までに存在する障害物を、連続した壁面として検出する。 In the example shown in FIG. 4, the direction from 90 degrees to the right to 45 degrees to the right with respect to the flight direction is a range in which the distance to the obstacle is within the obstacle distance and the distance to the obstacle gradually increases. In the example shown in FIG. 4, the distance to the obstacle existing in the direction of 45 degrees to the right with respect to the flight direction is exactly the obstacle distance, and the wall surface detection unit 26 sets this point as the obstacle survival end point. And. The wall surface detection unit 26 detects an obstacle existing from the obstacle survival start point to the obstacle survival end point as a continuous wall surface.

再び図3を参照する。飛行方向決定部27は、左右90度となる方向のうち壁面が検出されなかった方向にあるドローン1までの距離が障害距離となる地点と障害物存続終了点とを結びドローン1を中心とする円弧を二分する方向を、ドローン1の新たな飛行方向として決定する。飛行方向決定部27は、本開示に係る飛行方向決定手段の一例である。 See FIG. 3 again. The flight direction determination unit 27 connects the point where the distance to the drone 1 in the direction in which the wall surface is not detected out of the directions of 90 degrees to the left and right is the obstacle distance and the obstacle survival end point, and is centered on the drone 1. The direction that divides the arc into two is determined as the new flight direction of the drone 1. The flight direction determining unit 27 is an example of the flight direction determining means according to the present disclosure.

新たな飛行方向の決定についても、図4を参照しながら具体的に説明する。上述のとおり、図4においては、飛行方向に対して右45度となる方向に障害物存続終了点が存在する。飛行方向決定部27は、障害物存続終了点と、飛行方向に対して左90度となる方向にあるドローン1までの距離が障害距離となる地点とを結びドローン1を中心とする円弧を二分する方向である、飛行方向に対して左22.5度となる方向を、新たな飛行方向(図4における「飛行方向(修正後)」)として決定する。飛行方向決定部27は、このように新たな飛行方向を決定することで、飛行方向を極端に変化させることなくドローン1が壁面からさらに離れることができる。 The determination of a new flight direction will also be specifically described with reference to FIG. As described above, in FIG. 4, the obstacle survival end point exists in the direction of 45 degrees to the right with respect to the flight direction. The flight direction determination unit 27 connects the obstacle survival end point and the point where the distance to the drone 1 in the direction 90 degrees to the left of the flight direction is the obstacle distance, and divides the arc centered on the drone 1 into two. The direction to be 22.5 degrees to the left of the flight direction, which is the direction in which the flight is to be carried out, is determined as a new flight direction (“flying direction (corrected)” in FIG. 4). By determining the new flight direction in this way, the flight direction determination unit 27 allows the drone 1 to be further separated from the wall surface without drastically changing the flight direction.

再び図3を参照する。飛行計画修正部28は、飛行計画データが示す飛行ルートと、擬似測位部24が求めた擬似測位情報と、飛行方向決定部27が決定した新たな飛行方向とに基づいて飛行計画を修正する。飛行計画修正部28は、上述の二次記憶装置204に保存された飛行計画データを変更することにより、飛行計画を修正する。飛行計画修正部28は、まず、飛行計画データにおける既存の飛行ルートを、擬似測位情報にて用いられている擬似的な緯度、経度及び高度に対応する座標系にて表すように変更する。次に、飛行計画修正部28は、擬似的な緯度、経度及び高度にて表した飛行ルートにおける現在位置を特定する。飛行計画修正部28は、特定した現在位置においてそのまま飛行ルートに従った飛行を行った場合の飛行方向を現在の飛行方向として特定する。そして飛行計画修正部28は、特定した現在の飛行方向から、飛行方向決定部27により決定された新たな飛行方向へと飛行方向が修正されるように飛行ルートを変更する。飛行計画修正部28は、本開示に係る飛行計画修正手段の一例である。 See FIG. 3 again. The flight plan correction unit 28 corrects the flight plan based on the flight route indicated by the flight plan data, the pseudo-positioning information obtained by the pseudo-positioning unit 24, and the new flight direction determined by the flight direction determination unit 27. The flight plan correction unit 28 corrects the flight plan by changing the flight plan data stored in the secondary storage device 204 described above. First, the flight plan correction unit 28 changes the existing flight route in the flight plan data so as to be represented by the coordinate system corresponding to the pseudo latitude, longitude and altitude used in the pseudo positioning information. Next, the flight plan correction unit 28 identifies the current position in the flight route represented by pseudo latitude, longitude and altitude. The flight plan correction unit 28 specifies the flight direction as the current flight direction when the flight follows the flight route as it is at the specified current position. Then, the flight plan correction unit 28 changes the flight route so that the flight direction is corrected from the specified current flight direction to the new flight direction determined by the flight direction determination unit 27. The flight plan correction unit 28 is an example of the flight plan correction means according to the present disclosure.

飛行指令部25は、飛行計画修正部28により修正された飛行計画に基づいて、ドローン1が飛行移動すべき位置を決定し、決定した位置への飛行をフライトコントローラ3に指令する。飛行指令部25によるフライトコントローラ3への指令は、後述するフライトコントローラ3の飛行制御部34により処理されるため、図3では飛行指令部25から飛行制御部34に出力されるように図示している。 The flight command unit 25 determines the position where the drone 1 should fly and moves based on the flight plan modified by the flight plan correction unit 28, and commands the flight controller 3 to fly to the determined position. Since the command to the flight controller 3 by the flight command unit 25 is processed by the flight control unit 34 of the flight controller 3, which will be described later, FIG. 3 is shown so that the flight command unit 25 outputs the command to the flight control unit 34. There is.

次に、図5を参照しながら、フライトコントローラ3のプロセッサ301がドライバプログラムP31及び飛行プログラムP32を実行したときにおける、フライトコントローラ3の機能的構成を説明する。フライトコントローラ3は、機能的構成として、擬似コンパス部31と出力部33と飛行制御部34とを備える。これらの機能部のうち、擬似コンパス部31及び出力部33の機能は、プロセッサ301がドライバプログラムP31を実行することにより実現され、飛行制御部34の機能は、プロセッサ301が飛行プログラムP32を実行することにより実現される。 Next, with reference to FIG. 5, the functional configuration of the flight controller 3 when the processor 301 of the flight controller 3 executes the driver program P31 and the flight program P32 will be described. The flight controller 3 includes a pseudo compass unit 31, an output unit 33, and a flight control unit 34 as a functional configuration. Among these functional units, the functions of the pseudo compass unit 31 and the output unit 33 are realized by the processor 301 executing the driver program P31, and the functions of the flight control unit 34 are realized by the processor 301 executing the flight program P32. It is realized by.

擬似コンパス部31は、コンパニオンコンピュータ2の機首方向出力部23が出力した、環境地図上におけるドローン1の機首方向を示す機首方向情報に基づいて擬似的な磁束密度である擬似磁束密度を求める。具体的には、擬似コンパス部31は、現実において機首方向情報が示す方向にドローン1の機首が向いていると仮定したときの、ドローン1を通過する磁気を示す磁束密度を擬似磁束密度として求める。例えば、機首方向情報が示す方向が「北」であるとき、ドローン1の機首が現実に「北」を向いているときにドローン1を通過する磁気の磁束密度を、擬似磁束密度として求める。つまり、擬似コンパス部31は、環境地図上における機首方向に基づいて磁気を検出する擬似的な電子コンパスモジュールとして機能する。擬似コンパス部31は、本開示に係る擬似コンパス手段の一例である。 The pseudo companion unit 31 obtains a pseudo magnetic flux density, which is a pseudo magnetic flux density, based on the nose direction information indicating the nose direction of the drone 1 on the environment map output by the nose direction output unit 23 of the companion computer 2. Ask. Specifically, the pseudo-compass unit 31 sets the magnetic flux density indicating the magnetism passing through the drone 1 as the pseudo-magnetic flux density, assuming that the nose of the drone 1 is actually oriented in the direction indicated by the nose direction information. Ask as. For example, when the direction indicated by the nose direction information is "north", the magnetic flux density of the magnetism passing through the drone 1 when the nose of the drone 1 is actually facing "north" is obtained as a pseudo magnetic flux density. .. That is, the pseudo compass unit 31 functions as a pseudo electronic compass module that detects magnetism based on the nose direction on the environmental map. The pseudo compass unit 31 is an example of the pseudo compass means according to the present disclosure.

出力部33は、擬似コンパス部31が求めた擬似磁束密度と擬似測位部24が求めた測位情報とを飛行制御部34に出力する。上述のとおり、擬似コンパス部31及び出力部33の機能は、フライトコントローラ3のプロセッサ301がドライバプログラムP31を実行することにより実現される。プロセッサ301がドライバプログラムP31を実行することにより、最終的には出力部33の機能によって擬似磁束密度と擬似測位情報とが飛行制御部34に出力される。そのため、飛行制御部34からは、あたかも仮想的な電子コンパスモジュール及び仮想的な衛星測位モジュールから、磁束密度及び測位情報が出力されているように見える。 The output unit 33 outputs the pseudo magnetic flux density obtained by the pseudo compass unit 31 and the positioning information obtained by the pseudo positioning unit 24 to the flight control unit 34. As described above, the functions of the pseudo compass unit 31 and the output unit 33 are realized by the processor 301 of the flight controller 3 executing the driver program P31. When the processor 301 executes the driver program P31, the pseudo magnetic flux density and the pseudo positioning information are finally output to the flight control unit 34 by the function of the output unit 33. Therefore, from the flight control unit 34, it seems as if the magnetic flux density and the positioning information are output from the virtual electronic compass module and the virtual satellite positioning module.

飛行制御部34は、出力部33から出力された、擬似磁束密度及び擬似測位情報と、コンパニオンコンピュータ2の飛行指令部25からの飛行指令とに基づいて駆動部7を制御して、ドローン1の飛行を制御する。上述のとおり、飛行指令部25からの飛行指令は、新たな飛行方向として決定された飛行方向に基づくものであるため、飛行制御部34は、新たな飛行方向に基づいてドローン1の飛行を制御するものである。飛行制御部34自身は、擬似磁束密度及び擬似測位情報と、現実の磁束密度及び測位情報とを区別することもなく、単に出力部33から出力された磁束密度及び測位情報に基づいて駆動部7を制御する。飛行制御部34は、本開示に係る飛行制御手段の一例である。 The flight control unit 34 controls the drive unit 7 based on the pseudo magnetic flux density and the pseudo positioning information output from the output unit 33 and the flight command from the flight command unit 25 of the companion computer 2, and controls the drive unit 7 of the drone 1. Control flight. As described above, since the flight command from the flight command unit 25 is based on the flight direction determined as the new flight direction, the flight control unit 34 controls the flight of the drone 1 based on the new flight direction. To do. The flight control unit 34 itself does not distinguish between the pseudo magnetic flux density and the pseudo positioning information and the actual magnetic flux density and the positioning information, and the drive unit 7 simply based on the magnetic flux density and the positioning information output from the output unit 33. To control. The flight control unit 34 is an example of the flight control means according to the present disclosure.

上述のとおり、飛行制御部34の機能は、フライトコントローラ3のプロセッサ301が飛行プログラムP32を実行することにより実現される。飛行プログラムP32は、例えばフライトコントローラ3の製造者により作成されたプログラムである。飛行プログラムP32は、地磁気と地球上における位置とが正常に検出されることを前提として作成されているので、飛行制御の際に何らかのドライバプログラムから磁束密度及び測位情報が出力されることを必須としている。したがって、飛行プログラムP32(により機能する飛行制御部34)は、擬似磁束密度及び擬似測位情報と、現実の磁束密度及び測位情報とを区別することがない。 As described above, the function of the flight control unit 34 is realized by the processor 301 of the flight controller 3 executing the flight program P32. The flight program P32 is, for example, a program created by the manufacturer of the flight controller 3. Since the flight program P32 is created on the premise that the geomagnetism and the position on the earth are normally detected, it is essential that the magnetic flux density and positioning information be output from some driver program during flight control. There is. Therefore, the flight program P32 (the flight control unit 34 that functions according to the flight control unit 34) does not distinguish between the pseudo magnetic flux density and the pseudo positioning information and the actual magnetic flux density and the positioning information.

したがって、ドローン1のユーザは、フライトコントローラ3として市販のフライトコントローラを採用する場合において、フライトコントローラ3のハードウェア構成を変更することも、飛行プログラムP32を変更することもなく、ドライバプログラムP31を作成することにより、フライトコントローラ3の各機能を実現できる。 Therefore, when the user of the drone 1 adopts a commercially available flight controller as the flight controller 3, the user creates the driver program P31 without changing the hardware configuration of the flight controller 3 or the flight program P32. By doing so, each function of the flight controller 3 can be realized.

次に、図6を参照しながら、ドローン1による飛行制御の動作の一例を説明する。図6に示す動作の開始時においては、すでに飛行計画データが二次記憶装置204に保存されており、かつ飛行が開始されているものとする。 Next, an example of the flight control operation by the drone 1 will be described with reference to FIG. At the start of the operation shown in FIG. 6, it is assumed that the flight plan data has already been stored in the secondary storage device 204 and the flight has started.

ドローン1の測域センサ4は、ドローン1の周囲の障害物を検出し、検出した障害物の相対位置を示す情報をコンパニオンコンピュータ2に出力する(ステップS1)。 The range sensor 4 of the drone 1 detects an obstacle around the drone 1 and outputs information indicating the relative position of the detected obstacle to the companion computer 2 (step S1).

ドローン1のコンパニオンコンピュータ2の地図作成部21は、ステップS1にて検出した障害物の相対位置に基づいて環境地図を作成する(ステップS2)。 The map creation unit 21 of the companion computer 2 of the drone 1 creates an environmental map based on the relative position of the obstacle detected in step S1 (step S2).

コンパニオンコンピュータ2の推定部22は、ステップS2にて作成した環境地図上におけるドローン1の位置と飛行方向と機首方向とを推定する(ステップS3)。 The estimation unit 22 of the companion computer 2 estimates the position, flight direction, and nose direction of the drone 1 on the environment map created in step S2 (step S3).

コンパニオンコンピュータ2の機首方向出力部23は、ステップS3にて推定された機首方向を示す機首方向情報をフライトコントローラ3に出力する(ステップS4)。 The nose direction output unit 23 of the companion computer 2 outputs the nose direction information indicating the nose direction estimated in step S3 to the flight controller 3 (step S4).

コンパニオンコンピュータ2の擬似測位部24は、ステップS3にて推定された位置を擬似的な緯度、経度及び高度によりに表した擬似測位情報を求めてフライトコントローラ3に出力する(ステップS5)。 The pseudo-positioning unit 24 of the companion computer 2 obtains pseudo-positioning information representing the position estimated in step S3 in terms of pseudo latitude, longitude, and altitude, and outputs the pseudo-positioning information to the flight controller 3 (step S5).

コンパニオンコンピュータ2の壁面検出部26は、図7に示す動作を実行して壁面検出を行う(ステップS6)。以下、図7に示す動作を説明する。 The wall surface detection unit 26 of the companion computer 2 executes the operation shown in FIG. 7 to perform wall surface detection (step S6). The operation shown in FIG. 7 will be described below.

壁面検出部26は、飛行方向の左右90度方向に、測域センサ4による障害物検出の方向を設定する(ステップS61)。 The wall surface detection unit 26 sets the direction of obstacle detection by the range sensor 4 in the direction of 90 degrees to the left and right of the flight direction (step S61).

壁面検出部26は、測域センサ4を制御して、設定した検出方向について障害物の検出を行い、障害距離以内に障害物が存在するか否かを判定する(ステップS62)。 The wall surface detection unit 26 controls the range sensor 4 to detect an obstacle in the set detection direction, and determines whether or not an obstacle exists within the obstacle distance (step S62).

障害距離以内に障害物が存在しないと判定したとき(ステップS62:No)、壁面検出部26は、壁面が検出できなかったものとして壁面検出の動作を終了し、ドローン1は図6のステップS7からの動作を引き続き実行する。 When it is determined that there is no obstacle within the obstacle distance (step S62: No), the wall surface detection unit 26 terminates the wall surface detection operation assuming that the wall surface could not be detected, and the drone 1 terminates the wall surface detection operation, and the drone 1 performs step S7 in FIG. Continue to perform the operation from.

障害距離以内に障害物が存在すると判定したとき(ステップS62:Yes)、壁面検出部26は、検出した地点を障害物存続開始点とする(ステップS63)。 When it is determined that an obstacle exists within the obstacle distance (step S62: Yes), the wall surface detection unit 26 sets the detected point as the obstacle survival start point (step S63).

壁面検出部26は、飛行方向へ近づくように測域センサ4による障害物検出の方向を設定する(ステップS64)。 The wall surface detection unit 26 sets the direction of obstacle detection by the range sensor 4 so as to approach the flight direction (step S64).

壁面検出部26は、測域センサ4を制御して、設定した検出方向について障害物の検出を行い、障害距離以内に障害物が存在するか否かを判定する(ステップS65)。 The wall surface detection unit 26 controls the range sensor 4 to detect an obstacle in the set detection direction, and determines whether or not an obstacle exists within the obstacle distance (step S65).

障害距離以内に障害物が存在しないと判定したとき(ステップS65:No)、壁面検出部26は、壁面が検出できなかったものとして壁面検出の動作を終了し、ドローン1は図6のステップS7からの動作を引き続き実行する。 When it is determined that there is no obstacle within the obstacle distance (step S65: No), the wall surface detection unit 26 terminates the wall surface detection operation assuming that the wall surface could not be detected, and the drone 1 terminates the wall surface detection operation, and the drone 1 performs step S7 in FIG. Continue to perform the operation from.

障害距離以内に障害物が存在すると判定したとき(ステップS65:Yes)、壁面検出部26は、ドローン1から検出した障害物までの距離が漸増しているか否かを判定する(ステップS66)。 When it is determined that an obstacle exists within the obstacle distance (step S65: Yes), the wall surface detection unit 26 determines whether or not the distance from the drone 1 to the detected obstacle is gradually increasing (step S66).

障害物までの距離が漸増していないと判定したとき(ステップS66:No)、壁面検出部26は、壁面が検出できなかったものとして壁面検出の動作を終了し、ドローン1は図6のステップS7からの動作を引き続き実行する。 When it is determined that the distance to the obstacle has not gradually increased (step S66: No), the wall surface detection unit 26 terminates the wall surface detection operation assuming that the wall surface could not be detected, and the drone 1 ends the operation of wall surface detection, and the drone 1 performs the step of FIG. The operation from S7 is continuously executed.

障害物までの距離が漸増していると判定したとき(ステップS66:Yes)、壁面検出部26は、ドローン1から検出した障害物までの距離が障害距離であるか否かを判定する(ステップS67)。なお、完全に障害距離と一致する必要まではなく、例えば検出した距離と障害距離との差が予め定めた誤差範囲内(10センチメートル、15センチメートルなど)であれば、ドローン1から検出した障害物までの距離が障害距離であると判定してよい。 When it is determined that the distance to the obstacle is gradually increasing (step S66: Yes), the wall surface detection unit 26 determines whether or not the distance from the drone 1 to the detected obstacle is the obstacle distance (step). S67). It is not necessary to completely match the obstacle distance. For example, if the difference between the detected distance and the obstacle distance is within a predetermined error range (10 cm, 15 cm, etc.), it is detected from the drone 1. It may be determined that the distance to the obstacle is the obstacle distance.

ドローン1から検出した障害物までの距離が障害距離ではないと判定したとき(ステップS67:No)、壁面検出部26は、ステップS64からの動作を繰り返す。 When it is determined that the distance from the drone 1 to the detected obstacle is not the obstacle distance (step S67: No), the wall surface detection unit 26 repeats the operation from step S64.

ドローン1から検出した障害物までの距離が障害距離であると判定したとき(ステップS67:Yes)、壁面検出部26は、検出した地点を障害物存続終了点とする(ステップS68)。 When it is determined that the distance from the drone 1 to the detected obstacle is the obstacle distance (step S67: Yes), the wall surface detection unit 26 sets the detected point as the obstacle survival end point (step S68).

壁面検出部26は、障害物存続開始点から障害物存続終了点までを、連続した壁面として検出する(ステップS69)。そして壁面検出部26は、壁面が検出できたものとして壁面検出の動作を終了し、ドローン1は図6のステップS7からの動作を引き続き実行する。 The wall surface detection unit 26 detects from the obstacle survival start point to the obstacle survival end point as a continuous wall surface (step S69). Then, the wall surface detection unit 26 ends the wall surface detection operation assuming that the wall surface has been detected, and the drone 1 continues to execute the operation from step S7 in FIG.

再び図6を参照する。コンパニオンコンピュータ2の飛行方向決定部27は、ステップS6での壁面検出部26による検出結果に基づいて、ドローン1の新たな飛行方向を決定する(ステップS7)。具体的には、上述のとおり、飛行方向決定部27は、左右90度となる方向のうち壁面が検出されなかった方向にあるドローン1までの距離が障害距離となる地点と障害物存続終了点とを結びドローン1を中心とする円弧を二分する方向を、ドローン1の新たな飛行方向として決定する。ただし、壁面検出部26が壁面を検出できなかった場合、飛行方向決定部27は、現在の飛行方向をそのまま新たな飛行方向として決定する。 See FIG. 6 again. The flight direction determination unit 27 of the companion computer 2 determines a new flight direction of the drone 1 based on the detection result by the wall surface detection unit 26 in step S6 (step S7). Specifically, as described above, the flight direction determination unit 27 has a point where the distance to the drone 1 in the direction in which the wall surface is not detected out of the directions of 90 degrees to the left and right is the obstacle distance and the obstacle survival end point. The direction that bisects the arc centered on the drone 1 is determined as the new flight direction of the drone 1. However, if the wall surface detection unit 26 cannot detect the wall surface, the flight direction determination unit 27 determines the current flight direction as it is as a new flight direction.

コンパニオンコンピュータ2の飛行計画修正部28は、飛行計画データが示す飛行ルートと、ステップS5にて擬似測位部24が求めた擬似測位情報と、ステップS7にて飛行方向決定部27が決定した新たな飛行方向に基づいて、飛行計画を修正する(ステップS8)。 The flight plan correction unit 28 of the companion computer 2 includes the flight route indicated by the flight plan data, the pseudo-positioning information obtained by the pseudo-positioning unit 24 in step S5, and a new flight direction determination unit 27 determined by the flight direction determination unit 27 in step S7. The flight plan is modified based on the flight direction (step S8).

コンパニオンコンピュータ2の飛行指令部25は、ステップS8にて飛行計画修正部28が修正した飛行計画に基づいて、ドローン1が飛行移動すべき位置を決定し、決定した位置への飛行をフライトコントローラ3に指令する(ステップS9)。 The flight command unit 25 of the companion computer 2 determines the position where the drone 1 should fly and move based on the flight plan modified by the flight plan correction unit 28 in step S8, and the flight controller 3 determines the flight to the determined position. (Step S9).

ドローン1のフライトコントローラ3は、図8に示す動作を実行してドローン1の飛行制御を行う(ステップS10)。そしてドローン1は、ステップS1からの動作を繰り返す。以下、図8に示す動作を説明する。 The flight controller 3 of the drone 1 executes the operation shown in FIG. 8 to control the flight of the drone 1 (step S10). Then, the drone 1 repeats the operation from step S1. The operation shown in FIG. 8 will be described below.

フライトコントローラ3の擬似コンパス部31は、図6のステップS4にて出力された機首方向情報に基づいて、擬似的な磁束密度である擬似磁束密度を求める(ステップS101)。 The pseudo compass unit 31 of the flight controller 3 obtains a pseudo magnetic flux density, which is a pseudo magnetic flux density, based on the nose direction information output in step S4 of FIG. 6 (step S101).

出力部33は、ステップS101にて求められた擬似磁束密度と、図6のステップS5にて求められた擬似測位情報とを飛行制御部34に出力する(ステップS102)。 The output unit 33 outputs the pseudo magnetic flux density obtained in step S101 and the pseudo positioning information obtained in step S5 of FIG. 6 to the flight control unit 34 (step S102).

フライトコントローラ3の飛行制御部34は、ステップS102にて出力部33から出力された擬似磁束密度及び擬似測位情報と、図6のステップS9での飛行指令部25からの飛行指令とに基づいて駆動部7を制御する(ステップS103)。飛行制御部34が駆動部7を制御することにより、飛行指令部25による飛行指令に従ってドローン1は飛行移動する。そしてドローン1は、図6のステップS1からの動作を繰り返す。 The flight control unit 34 of the flight controller 3 is driven based on the pseudo magnetic flux density and pseudo positioning information output from the output unit 33 in step S102 and the flight command from the flight command unit 25 in step S9 of FIG. The unit 7 is controlled (step S103). When the flight control unit 34 controls the drive unit 7, the drone 1 flies and moves according to the flight command by the flight command unit 25. Then, the drone 1 repeats the operation from step S1 of FIG.

以上、実施の形態に係るドローン1を説明した。ドローン1によれば、壁面検出部26により検出された壁面に基づいて飛行方向決定部27が新たな飛行方向を決定し、擬似的な磁束密度である擬似磁束密度と、擬似的な測位情報である擬似測位情報と、新たな飛行方向とに基づいてドローン1の飛行制御が行われる。したがって、ドローン1によれば、衛星測位及び地磁気検出に依らずに、壁面の存在する環境下での自律飛行が可能となる。 The drone 1 according to the embodiment has been described above. According to the drone 1, the flight direction determination unit 27 determines a new flight direction based on the wall surface detected by the wall surface detection unit 26, and the pseudo magnetic flux density, which is a pseudo magnetic flux density, and the pseudo positioning information are used. Flight control of the drone 1 is performed based on a certain pseudo-positioning information and a new flight direction. Therefore, according to the drone 1, autonomous flight is possible in an environment where a wall surface exists, regardless of satellite positioning and geomagnetic detection.

また、フライトコントローラ3として市販のフライトコントローラを採用する場合、ドローン1のユーザは、フライトコントローラ3のハードウェア構成及び飛行プログラムP32を変更することなく、ドライバプログラムP31を作成することにより、ドローン1を構成することができる。また、コンパニオンコンピュータ2の各機能についても、一般的なマイクロコントローラが動作プログラムを実行することにより実現される。したがって、ドローン1によれば、壁面の存在する環境下での自律飛行を低コストに実現できる。 Further, when a commercially available flight controller is adopted as the flight controller 3, the user of the drone 1 can use the drone 1 by creating the driver program P31 without changing the hardware configuration of the flight controller 3 and the flight program P32. Can be configured. Further, each function of the companion computer 2 is also realized by executing an operation program by a general microcontroller. Therefore, according to the drone 1, autonomous flight in an environment where a wall surface exists can be realized at low cost.

(変形例1)
実施の形態では、フライトコントローラ3が擬似コンパス部31を備えるものとしたが、コンパニオンコンピュータ2が擬似コンパス部31と同様の機能部を備え、フライトコントローラ3は擬似コンパス部31を備えないものであってもよい。
(Modification example 1)
In the embodiment, the flight controller 3 is provided with the pseudo companion unit 31, but the companion computer 2 is provided with the same functional unit as the pseudo companion unit 31, and the flight controller 3 is not provided with the pseudo compass unit 31. You may.

例えば、図9に示すように、コンパニオンコンピュータ2が擬似コンパス部29を備え、フライトコントローラ3は擬似コンパス部31を備えないものであってもよい。擬似コンパス部29は、推定部22が推定した環境地図上における機首方向に基づいて、実施の形態の擬似コンパス部31と同様にして擬似磁束密度を求め、求めた擬似磁束密度をフライトコントローラ3に出力する。擬似磁束密度は、出力部33により処理されるため、図9では擬似コンパス部29から出力部33に出力されるように図示している。 For example, as shown in FIG. 9, the companion computer 2 may include the pseudo companion unit 29, and the flight controller 3 may not include the pseudo companion unit 31. The pseudo-compass unit 29 obtains a pseudo-magnetic flux density based on the nose direction on the environment map estimated by the estimation unit 22 in the same manner as the pseudo-compass unit 31 of the embodiment, and the obtained pseudo-magnetic flux density is obtained by the flight controller 3 Output to. Since the pseudo magnetic flux density is processed by the output unit 33, it is shown in FIG. 9 that the pseudo magnetic flux density is output from the pseudo compass unit 29 to the output unit 33.

(変形例2)
上記の実施の形態では、障害距離が一定の距離であるものとして説明した。これに代えて、飛行計画データが示す地下トンネルの地図に基づいて障害距離を可変なものとしてもよい。例えば、地下トンネルの一部に幅が狭い箇所があるとする。このような幅が狭い箇所を予め検出し、その箇所の近辺を通過する際には障害距離を通常よりも小さくなるように設定してもよい。つまり、ドローン1が飛行する地下トンネルの地図を示す情報に基づいて障害距離を可変としてもよい。
(Modification 2)
In the above embodiment, it has been described that the obstacle distance is a constant distance. Alternatively, the obstacle distance may be variable based on the map of the underground tunnel shown by the flight plan data. For example, suppose that a part of an underground tunnel has a narrow part. A portion having such a narrow width may be detected in advance, and the obstacle distance may be set to be smaller than usual when passing in the vicinity of the portion. That is, the obstacle distance may be variable based on the information showing the map of the underground tunnel in which the drone 1 flies.

1 ドローン、2 コンパニオンコンピュータ、3 フライトコントローラ、4 測域センサ、7 駆動部、21 地図作成部、22 推定部、23 機首方向出力部、24 擬似測位部、25 飛行指令部、26 壁面検出部、27 飛行方向決定部、28 飛行計画修正部、29 擬似コンパス部、31 擬似コンパス部、33 出力部、34 飛行制御部、201 プロセッサ、202 メモリ、203 インタフェース、204 二次記憶装置、301 プロセッサ、302 メモリ、303 インタフェース、304 二次記憶装置、B2,B3 バス、P31 ドライバプログラム、P32 飛行プログラム 1 Drone, 2 Companion computer, 3 Flight controller, 4 Range sensor, 7 Drive unit, 21 Map creation unit, 22 Estimator unit, 23 Nose direction output unit, 24 Pseudo positioning unit, 25 Flight command unit, 26 Wall surface detection unit , 27 Flight direction determination unit, 28 Flight plan correction unit, 29 Pseudo compass unit, 31 Pseudo compass unit, 33 Output unit, 34 Flight control unit, 201 processor, 202 memory, 203 interface, 204 Secondary storage device, 301 processor, 302 memory, 303 interface, 304 secondary storage, B2, B3 bus, P31 driver program, P32 flight program

Claims (4)

自律飛行体であって、
前記自律飛行体の周囲の障害物を検出する測域センサと、
前記測域センサによる検出結果に基づいて環境地図を作成する地図作成手段と、
前記環境地図上における前記自律飛行体の飛行方向を推定する推定手段と
前記飛行方向に対して左右90度となる方向に前記自律飛行体との距離が予め定められた障害距離以内となる障害物が存在するかを判定する障害物判定手段と、
前記障害物判定手段が、前記自律飛行体との距離が前記障害距離以内となる障害物が存在すると判定した場合、前記障害物判定手段により障害物が存在すると判定した地点を障害物存続開始点とし、前記飛行方向に近づくように継続的に前記測域センサによる障害物の検出を行い、前記自律飛行体との距離が予め定められた障害距離以内かつ前記測域センサによる検出の検出方向が前記飛行方向に近づくほど前記自律飛行体との距離が漸増するかを判定し、前記自律飛行体との距離が前記障害距離となる地点を障害物存続終了点として、前記障害物存続開始点から前記障害物存続終了点までを連続した壁面として検出する壁面検出手段と、
前記壁面検出手段により前記壁面を検出したとき、前記左右90度となる方向のうち前記壁面が検出されなかった方向にある前記自律飛行体までの距離が前記障害距離となる地点と前記障害物存続終了点とを結び前記自律飛行体を中心とする円弧を二分する方向を、前記自律飛行体の新たな飛行方向として決定する飛行方向決定手段と、
前記飛行方向決定手段により決定された前記新たな飛行方向に基づいて前記自律飛行体の飛行を制御する飛行制御手段と、
を備える自律飛行体。
It ’s an autonomous aircraft,
A range sensor that detects obstacles around the autonomous vehicle and
A map creation means for creating an environmental map based on the detection result of the range sensor, and
An obstacle in which the distance between the estimation means for estimating the flight direction of the autonomous vehicle on the environmental map and the autonomous vehicle in the direction 90 degrees to the left and right of the flight direction is within a predetermined obstacle distance. Obstacle determination means to determine if there is
When the obstacle determination means determines that there is an obstacle whose distance to the autonomous flying object is within the obstacle distance, the point where the obstacle determination means determines that the obstacle exists is the obstacle survival start point. Then, the obstacle is continuously detected by the range sensor so as to approach the flight direction, and the distance to the autonomous flying object is within a predetermined obstacle distance and the detection direction of the detection by the range sensor is set. It is determined whether the distance to the autonomous flying object gradually increases as it approaches the flight direction, and the point where the distance to the autonomous flying object becomes the obstacle distance is set as the obstacle survival end point, and from the obstacle survival start point. A wall surface detecting means for detecting the obstacle survival end point as a continuous wall surface, and
When the wall surface is detected by the wall surface detecting means, the distance to the autonomous flying object in the direction in which the wall surface is not detected in the direction of 90 degrees to the left and right is the obstacle distance and the obstacle persistence. A flight direction determining means that connects the end point and determines the direction that divides the arc centered on the autonomous vehicle into two as a new flight direction of the autonomous vehicle.
A flight control means for controlling the flight of the autonomous vehicle based on the new flight direction determined by the flight direction determining means, and a flight control means.
Autonomous flying object equipped with.
前記推定手段はさらに、前記環境地図上における前記自律飛行体の位置を推定し、
前記推定手段が推定した前記位置を擬似的な緯度と経度と高度とにより表した擬似測位情報を求める擬似測位手段と、
予め定められた前記自律飛行体の飛行計画を、前記擬似測位情報と、前記新たな飛行方向とに基づいて修正する飛行計画修正手段と、
をさらに備え、
前記飛行制御手段は、前記飛行計画修正手段により修正された前記飛行計画に基づいて決定された、前記自律飛行体が飛行移動すべき位置へ飛行するよう前記自律飛行体の飛行を制御する、
請求項1に記載の自律飛行体。
The estimating means further estimates the position of the autonomous vehicle on the environmental map and
Pseudo-positioning means for obtaining pseudo-positioning information in which the position estimated by the estimation means is represented by pseudo-latitude, longitude, and altitude.
A flight plan correction means for correcting a predetermined flight plan of the autonomous vehicle based on the pseudo-positioning information and the new flight direction.
With more
The flight control means controls the flight of the autonomous vehicle so that the autonomous vehicle flies to a position where it should fly, which is determined based on the flight plan modified by the flight plan correction means.
The autonomous vehicle according to claim 1.
前記壁面検出手段は、前記自律飛行体が飛行する地下トンネルの地図を示す情報に基づいて、前記障害距離を可変に設定する、
請求項1又は2に記載の自律飛行体。
The wall surface detecting means variably sets the obstacle distance based on the information indicating the map of the underground tunnel in which the autonomous vehicle flies.
The autonomous flying object according to claim 1 or 2.
自律飛行体の飛行を制御する飛行制御方法であって、
前記自律飛行体の周囲の障害物を検出して環境地図を作成し、
前記環境地図上における前記自律飛行体の飛行方向を推定し、
前記飛行方向に対して左右90度となる方向に前記自律飛行体との距離が予め定められた障害距離以内となる障害物が存在するかを判定し、
前記自律飛行体との距離が前記障害距離以内となる障害物が存在すると判定した場合、障害物が存在すると判定した地点を障害物存続開始点とし、前記飛行方向に近づくように継続的に障害物の検出を行い、前記自律飛行体との距離が予め定められた障害距離以内かつ検出方向が前記飛行方向に近づくほど前記自律飛行体との距離が漸増するかを判定し、前記自律飛行体との距離が前記障害距離となる地点を障害物存続終了点として、前記障害物存続開始点から前記障害物存続終了点までを連続した壁面として検出し、
前記壁面を検出したとき、前記左右90度となる方向のうち前記壁面が検出されなかった方向にある前記自律飛行体までの距離が前記障害距離となる地点と前記障害物存続終了点とを結び前記自律飛行体を中心とする円弧を二分する方向を、前記自律飛行体の新たな飛行方向として決定し、
決定された前記新たな飛行方向に基づいて前記自律飛行体の飛行を制御する、
飛行制御方法。
It is a flight control method that controls the flight of autonomous vehicles.
Detect obstacles around the autonomous aircraft, create an environmental map, and
The flight direction of the autonomous vehicle on the environmental map is estimated, and the flight direction is estimated.
It is determined whether or not there is an obstacle whose distance to the autonomous flying object is within a predetermined obstacle distance in a direction 90 degrees to the left or right with respect to the flight direction.
When it is determined that there is an obstacle whose distance to the autonomous flying object is within the obstacle distance, the point where it is determined that the obstacle exists is set as the obstacle survival start point, and the obstacle is continuously approached in the flight direction. An object is detected, and it is determined whether the distance to the autonomous flying object gradually increases as the distance to the autonomous flying object is within a predetermined obstacle distance and the detection direction approaches the flight direction. The point where the distance from the obstacle is the obstacle distance is detected as the obstacle survival end point, and the obstacle survival start point to the obstacle survival end point is detected as a continuous wall surface.
When the wall surface is detected, the point where the distance to the autonomous flying object in the direction in which the wall surface is not detected out of the directions of 90 degrees to the left and right becomes the obstacle distance and the obstacle survival end point are connected. The direction that bisects the arc centered on the autonomous vehicle is determined as the new flight direction of the autonomous vehicle.
Controlling the flight of the autonomous vehicle based on the determined new flight direction,
Flight control method.
JP2020056971A 2020-03-27 2020-03-27 Autonomous flying vehicle and flight control method Active JP7450431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020056971A JP7450431B2 (en) 2020-03-27 2020-03-27 Autonomous flying vehicle and flight control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056971A JP7450431B2 (en) 2020-03-27 2020-03-27 Autonomous flying vehicle and flight control method

Publications (2)

Publication Number Publication Date
JP2021157493A true JP2021157493A (en) 2021-10-07
JP7450431B2 JP7450431B2 (en) 2024-03-15

Family

ID=77918472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056971A Active JP7450431B2 (en) 2020-03-27 2020-03-27 Autonomous flying vehicle and flight control method

Country Status (1)

Country Link
JP (1) JP7450431B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102526202B1 (en) * 2022-11-08 2023-04-26 (주)프리뉴 Indoor autonomous flying drone control system and method therefor
JP7290785B1 (en) 2022-07-07 2023-06-13 中国長江三峡集団有限公司 Mobile positioning method and system for scanning device applied to tunnel construction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900029B2 (en) 2017-04-18 2021-07-07 株式会社自律制御システム研究所 Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290785B1 (en) 2022-07-07 2023-06-13 中国長江三峡集団有限公司 Mobile positioning method and system for scanning device applied to tunnel construction
JP2024008786A (en) * 2022-07-07 2024-01-19 中国長江三峡集団有限公司 Moving positioning method for scanner applied to tunnel construction and system
KR102526202B1 (en) * 2022-11-08 2023-04-26 (주)프리뉴 Indoor autonomous flying drone control system and method therefor

Also Published As

Publication number Publication date
JP7450431B2 (en) 2024-03-15

Similar Documents

Publication Publication Date Title
CN109478068B (en) Method, apparatus and storage medium for dynamically controlling a vehicle
CN109885080B (en) Autonomous control system and autonomous control method
US20180032042A1 (en) System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data
EP3128386B1 (en) Method and device for tracking a moving target from an air vehicle
Achtelik et al. Visual-inertial SLAM for a small helicopter in large outdoor environments
US20180350086A1 (en) System And Method Of Dynamically Filtering Depth Estimates To Generate A Volumetric Map Of A Three-Dimensional Environment Having An Adjustable Maximum Depth
US10254767B1 (en) Determining position or orientation relative to a marker
WO2019127029A1 (en) Obstacle avoidance method and device and aircraft
JP7450431B2 (en) Autonomous flying vehicle and flight control method
JP2021117502A (en) Landing control device, landing control method and program
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
JP7421396B2 (en) Autonomous flying vehicle and flight control method
WO2022132934A1 (en) High-definition city mapping
JP2022015978A (en) Unmanned aircraft control method, unmanned aircraft, and unmanned aircraft control program
US11906970B2 (en) Information processing device and information processing method
JP7351609B2 (en) Route searching device and program
JPH11249734A (en) Autonomous guidance device
Høglund Autonomous inspection of wind turbines and buildings using an UAV
CN113791643A (en) Course angle correction method and device for indoor inspection multi-rotor unmanned aerial vehicle and storage medium
US20220334594A1 (en) Information processing system, information processing apparatus, and information processing program
KR101725649B1 (en) Unmanned aerial vehicle and remote controller for the unmanned aerial vehicle
Baruch et al. Navigation approaches for hovering autonomous underwater vehicles
KR20070090426A (en) Self-control automobile and method of tracking target waypoint
US20230343227A1 (en) System and method for controlling aerial vehicle
JP2022134725A (en) Autonomous flying object and flight control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240305

R150 Certificate of patent or registration of utility model

Ref document number: 7450431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150