JP6900029B2 - Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program - Google Patents

Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program Download PDF

Info

Publication number
JP6900029B2
JP6900029B2 JP2017082314A JP2017082314A JP6900029B2 JP 6900029 B2 JP6900029 B2 JP 6900029B2 JP 2017082314 A JP2017082314 A JP 2017082314A JP 2017082314 A JP2017082314 A JP 2017082314A JP 6900029 B2 JP6900029 B2 JP 6900029B2
Authority
JP
Japan
Prior art keywords
aerial vehicle
unmanned aerial
speed
estimated
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017082314A
Other languages
Japanese (ja)
Other versions
JP2018181116A (en
Inventor
慶祐 池田
慶祐 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Autonomous Control Systems Laboratory Ltd ACSL
Original Assignee
Autonomous Control Systems Laboratory Ltd ACSL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Autonomous Control Systems Laboratory Ltd ACSL filed Critical Autonomous Control Systems Laboratory Ltd ACSL
Priority to JP2017082314A priority Critical patent/JP6900029B2/en
Publication of JP2018181116A publication Critical patent/JP2018181116A/en
Application granted granted Critical
Publication of JP6900029B2 publication Critical patent/JP6900029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、無人航空機に関し、特に自己位置推定を行う無人航空機、該無人航空機の位置推定装置、飛行制御装置、位置推定方法、制御方法及びプログラムに関する。 The present invention relates to an unmanned aerial vehicle, particularly an unmanned aerial vehicle that performs self-position estimation, a position estimation device, a flight control device, a position estimation method, a control method, and a program of the unmanned aerial vehicle.

従来、無人航空機は操縦者が地上の操縦送信器から上空の無人航空機へと制御信号を送信して操縦することにより飛行するか、あるいは自律制御装置を搭載することにより飛行計画に従って自律飛行をしていた。 Conventionally, an unmanned aerial vehicle either flies by the operator transmitting a control signal from a control transmitter on the ground to an unmanned aerial vehicle in the sky and maneuvering, or autonomously flies according to a flight plan by installing an autonomous control device. Was there.

近年、固定翼機、回転翼機を含む無人航空機を自律飛行させるためのさまざまな自律制御装置が開発されている。特許文献1、2においては、小型無人ヘリコプタの位置、姿勢、高度、方位を検知するセンサと、小型無人ヘリコプタの舵を動かすサーボモータへの制御指令値を演算する主演算部と、センサからのデータ収集を行い、また主演算部による演算結果をサーボモータへのパルス信号に変換する副演算部とを1つの小型フレームボックスにアセンブリした自律制御装置が提案されている。 In recent years, various autonomous control devices for autonomously flying unmanned aerial vehicles, including fixed-wing aircraft and rotary-wing aircraft, have been developed. In Patent Documents 1 and 2, a sensor that detects the position, attitude, altitude, and orientation of the small unmanned helicopter, a main calculation unit that calculates a control command value to a servomotor that moves the steering wheel of the small unmanned helicopter, and a sensor are used. An autonomous control device has been proposed in which a sub-calculation unit that collects data and converts the calculation result of the main calculation unit into a pulse signal to a servomotor is assembled in one small frame box.

特開2004−256020号公報Japanese Unexamined Patent Publication No. 2004-256020 特開2004−256022号公報Japanese Unexamined Patent Publication No. 2004-256022

無人航空機は、位置情報を取得するGPSセンサ、及び高度情報を取得する気圧センサを備える。しかし無人航空機が橋梁の下方などの架設部を有する構造物の該架設部下方を飛行する場合、GPSが取得する位置精度は十分ではなく、橋梁下部に河川がある場合などは、気圧センサが取得する高度の精度も十分ではない。特に無人航空機を用いて橋梁の下面の点検を行う場合などは、橋梁の下面と一定の距離を保持して無人航空機の飛行を制御することが難しいという問題がある。外部から制御情報を送信することにより無人航空機を制御することは可能であるが、無人航空機の飛行は最終的には自律制御されることが望ましい。また、橋梁の下方などの構造物の内側において目視で確認して操縦することは、それ自体が難しいという問題がある。 The unmanned aerial vehicle includes a GPS sensor that acquires position information and a barometric pressure sensor that acquires altitude information. However, when an unmanned aerial vehicle flies under the erection part of a structure having an erection part such as below the bridge, the position accuracy acquired by GPS is not sufficient, and when there is a river under the bridge, the barometric pressure sensor acquires it. The high degree of accuracy is not sufficient. In particular, when inspecting the lower surface of a bridge using an unmanned aerial vehicle, there is a problem that it is difficult to control the flight of the unmanned aerial vehicle while maintaining a certain distance from the lower surface of the bridge. Although it is possible to control an unmanned aerial vehicle by transmitting control information from the outside, it is desirable that the flight of the unmanned aerial vehicle is ultimately controlled autonomously. In addition, there is a problem that it is difficult to visually confirm and maneuver inside a structure such as below a bridge.

そこで、本出願人は、橋梁の下方などでの無人航空機の飛行を制御するにあたって、レーザを用いたSLAM(Simultaneous Localization And Mapping)技術を利用して無人航空機の位置(高度)を推定する技術を考えた。しかし、地上からの反射を用いた場合、河川からの反射を用いると正しい測定が困難であり、橋梁の下面からの反射を用いた場合、橋梁の下面から逸脱したときに急上昇してしまったり飛行が不安定になってしまったりするという問題があった。 Therefore, the applicant has developed a technique for estimating the position (altitude) of an unmanned aerial vehicle by using SLAM (Simultaneous Localization And Mapping) technology using a laser when controlling the flight of the unmanned aerial vehicle below a bridge. Thought. However, when using reflections from the ground, it is difficult to make correct measurements using reflections from rivers, and when using reflections from the underside of a bridge, it suddenly rises or flies when it deviates from the underside of the bridge. There was a problem that it became unstable.

本発明は、このような課題を解決するためになされたものであり、橋梁の下方などの架設部を有する構造物の該架設部下方において無人航空機の飛行を制御するために無人航空機の位置を推定することが可能な装置等を提供することを主目的とする。 The present invention has been made to solve such a problem, and the position of the unmanned aerial vehicle is determined in order to control the flight of the unmanned aerial vehicle under the erection portion of the structure having the erection portion such as below the bridge. The main purpose is to provide a device or the like capable of estimating.

上記の目的を達成するために、本発明の一態様としての位置推定装置は、無人航空機の絶対位置を計測するためのグローバルセンサを用いて上記無人航空機の位置を取得する環境取得部と、上記無人航空機の相対位置を計測するためのローカルセンサを用いて上記無人航空機の周囲にある障害物に対する上記無人航空機の相対位置を推定し、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に上記無人航空機の相対位置を出力する、自己位置推定部と、上記自己位置推定部により上記無人航空機の相対位置が出力された場合は該相対位置に基づいて、かつ上記環境取得部により上記位置が取得された場合は該位置に基づいて、上記無人航空機の位置及び速度を推定する推定器と、を備えることを特徴とする。 In order to achieve the above object, the position estimation device as one aspect of the present invention includes an environment acquisition unit that acquires the position of the unmanned aerial vehicle by using a global sensor for measuring the absolute position of the unmanned aerial vehicle, and the above. The relative position of the unmanned aerial vehicle with respect to the obstacles around the unmanned aerial vehicle is estimated using a local sensor for measuring the relative position of the unmanned aerial vehicle, and the estimated relative position is based on the estimated likelihood. The self-position estimation unit that outputs the relative position of the unmanned aerial vehicle when it is determined to be valid, and the self-position estimation unit that outputs the relative position of the unmanned aerial vehicle, if the relative position of the unmanned aerial vehicle is output, based on the relative position. Moreover, when the position is acquired by the environment acquisition unit, it is characterized by including an estimator for estimating the position and speed of the unmanned aerial vehicle based on the position.

また、本発明において好ましくは、上記自己位置推定部は、上記ローカルセンサによる測距距離が所定の距離内であった場合に、上記無人航空機の相対位置を出力する。 Further, preferably in the present invention, the self-position estimation unit outputs the relative position of the unmanned aerial vehicle when the distance measured by the local sensor is within a predetermined distance.

また、本発明において好ましくは、上記自己位置推定部は、レーザを用いて取得された点群データに基づいて上記無人航空機の相対位置を推定し、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に上記無人航空機の相対位置を出力する。 Further, preferably in the present invention, the self-position estimation unit estimates the relative position of the unmanned aerial vehicle based on the point cloud data acquired by using a laser, and the estimation is based on the likelihood of the estimation. When it is determined that the relative position is valid, the relative position of the unmanned aerial vehicle is output.

また、本発明において好ましくは、上記自己位置推定部は、SLAM技術を利用して上記無人航空機の相対位置を推定する。 Further, preferably in the present invention, the self-position estimation unit estimates the relative position of the unmanned aerial vehicle by using SLAM technology.

また、本発明において好ましくは、上記自己位置推定部は、SLAM技術を利用してマップを作成し、作成されたマップと取得された点群データとの一致度に基づいて上記推定された相対位置が有効であるか否かを判定する。 Further, preferably in the present invention, the self-position estimation unit creates a map using SLAM technology, and the relative position estimated based on the degree of agreement between the created map and the acquired point cloud data. Is valid or not.

また、本発明において好ましくは、上記環境取得部は気圧センサを用いて高度を取得する。 Further, in the present invention, preferably, the environment acquisition unit acquires altitude by using a barometric pressure sensor.

また、本発明において好ましくは、上記位置は高度であり、上記速度は鉛直方向速度である。 Further, in the present invention, the position is preferably altitude, and the speed is a vertical speed.

また、本発明において好ましくは、上記推定器は、上記自己位置推定部により上記無人航空機の相対位置が出力された場合、該相対位置に基づいて、上記無人航空機の速度及び該速度を補正するための加速度バイアス値を推定して出力する第1の推定器と、上記速度及び上記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値に基づいて、かつ上記環境取得部により上記位置が取得された場合は該位置に基づいて、上記無人航空機の位置及び速度を推定して出力する第2の推定器と、を含み、上記推定器により推定された上記無人航空機の位置及び速度は、上記第2の推定器により出力された位置及び速度である。 Further, preferably, in the present invention, the estimator corrects the speed of the unmanned aircraft and the speed based on the relative position when the relative position of the unmanned aircraft is output by the self-position estimation unit. The first estimator that estimates and outputs the acceleration bias value of, and when the speed and the acceleration bias value are output, based on the output speed and the acceleration bias value, and by the environment acquisition unit, the above. When the position is acquired, the position and speed of the unmanned aircraft estimated by the estimator include a second estimator that estimates and outputs the position and speed of the unmanned aircraft based on the position. Is the position and speed output by the second estimator.

また、本発明において好ましくは、第1の推定器は、上記自己位置推定部により上記無人航空機の相対位置が出力された場合に、該相対位置を観測値として用いて、上記無人航空機の速度及び加速度バイアス値を推定して出力するカルマンフィルタである。 Further, preferably, in the present invention, when the relative position of the unmanned aerial vehicle is output by the self-position estimation unit, the first estimator uses the relative position as an observation value to obtain the speed of the unmanned aerial vehicle and the speed of the unmanned aerial vehicle. It is a Kalman filter that estimates and outputs the acceleration bias value.

また、本発明において好ましくは、上記第1の推定器は、上記速度、上記位置、及び上記加速度バイアス値を成分として含む現在の状態ベクトル及び過去の状態ベクトルの関係を表す状態方程式と、上記観測値及び該状態ベクトルの関係を表す観測方程式とに基づいて、上記無人航空機の速度及び加速度バイアス値を推定する。 Further, preferably in the present invention, the first estimator is a state equation expressing the relationship between the current state vector and the past state vector including the velocity, the position, and the acceleration bias value as components, and the observation. The velocity and acceleration bias values of the unmanned aircraft are estimated based on the observation equation representing the relationship between the values and the state vector.

また、本発明において好ましくは、上記第2の推定器は、上記速度及び上記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値を観測値として用い、かつ上記環境取得部により上記位置が取得された場合は該位置を観測値として用いて、上記無人航空機の位置及び速度を推定して出力するカルマンフィルタである。 Further, preferably in the present invention, when the speed and the acceleration bias value are output, the second estimator uses the output speed and the acceleration bias value as observation values, and the environment acquisition unit uses the output. When the position is acquired, the Kalman filter estimates and outputs the position and speed of the unmanned aircraft by using the position as an observation value.

また、本発明において好ましくは、上記第2の推定器は、上記速度、上記位置、及び上記加速度バイアス値を成分として含む現在の状態ベクトル及び過去の状態ベクトルの関係を表す状態方程式と、上記観測値及び該状態ベクトルの関係を表す観測方程式とに基づいて、上記無人航空機の位置及び速度を推定する。 Further, preferably in the present invention, the second estimator preferably has a state equation expressing the relationship between the current state vector and the past state vector including the velocity, the position, and the acceleration bias value as components, and the observation. The position and velocity of the unmanned aircraft are estimated based on the observation equation representing the relationship between the value and the state vector.

上記第2の推定器は、上記第1の推定器から出力される上記速度及び上記加速度バイアス値の尤度を、上記環境取得部により取得された上記位置の尤度よりも大きく設定して、上記無人航空機の位置及び速度を推定して出力する。 The second estimator sets the likelihood of the velocity and the acceleration bias value output from the first estimator to be larger than the likelihood of the position acquired by the environment acquisition unit. The position and speed of the unmanned aerial vehicle are estimated and output.

また、本発明において好ましくは、上記環境取得部は加速度センサを用いて加速度を更に取得し、上記第1の推定器及び上記第2の推定器は、上記環境取得部から取得された加速度を制御入力として用いる。 Further, preferably in the present invention, the environment acquisition unit further acquires the acceleration by using the acceleration sensor, and the first estimator and the second estimator control the acceleration acquired from the environment acquisition unit. Used as input.

また、上記の目的を達成するために、本発明の一態様としての飛行制御装置は、上記の位置推定装置を備える、無人航空機の飛行を制御する飛行制御装置であって、上記推定器により推定された上記無人航空機の位置及び速度を用いて上記無人航空機の飛行を制御することを特徴とする。 Further, in order to achieve the above object, the flight control device as one aspect of the present invention is a flight control device for controlling the flight of an unmanned aerial vehicle provided with the above position estimation device, and is estimated by the above estimator. It is characterized in that the flight of the unmanned aerial vehicle is controlled by using the position and speed of the unmanned aerial vehicle.

また、本発明において好ましくは、上記自己位置推定部により推定された相対位置を用いて上記障害物との距離を決定し、上記推定器により推定された上記無人航空機の位置及び速度を用いて、該決定された距離を一定以上に保持して衝突を回避するように上記無人航空機の飛行を制御する。 Further, in the present invention, preferably, the distance to the obstacle is determined using the relative position estimated by the self-position estimation unit, and the position and speed of the unmanned aerial vehicle estimated by the estimator are used. The flight of the unmanned aerial vehicle is controlled so as to keep the determined distance above a certain level and avoid a collision.

また、本発明において好ましくは、上記無人航空機が架設部を有する構造物の該架設部下方を飛行する場合、上記推定器により推定された上記無人航空機の位置及び速度を用いて、該架設部の下面との距離を一定に保持するように上記無人航空機の飛行を制御する。 Further, preferably, in the present invention, when the unmanned aerial vehicle flies below the erection portion of the structure having the erection portion, the position and speed of the unmanned aerial vehicle estimated by the estimator are used to obtain the erection portion. The flight of the unmanned aerial vehicle is controlled so as to keep the distance from the lower surface constant.

また、上記の目的を達成するために、本発明の一態様としての無人航空機は、上記の飛行制御装置を備えることを特徴とする。 Further, in order to achieve the above object, the unmanned aerial vehicle as one aspect of the present invention is characterized by including the above flight control device.

また、上記の目的を達成するために、本発明の一態様としての位置推定方法は、無人航空機の位置を推定する方法であって、上記無人航空機の絶対位置を計測するためのセンサを用いて上記無人航空機の位置を取得するステップと、上記無人航空機の相対位置を計測するためのセンサを用いて上記無人航空機の相対位置を推定するステップであって、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に上記無人航空機の相対位置を推定するステップと、上記無人航空機の相対位置が推定された場合は該相対位置に基づいて、かつ上記位置が取得された場合は該位置に基づいて、上記無人航空機の位置及び速度を推定するステップと、を含むことを特徴とする。 Further, in order to achieve the above object, the position estimation method as one aspect of the present invention is a method of estimating the position of the unmanned aerial vehicle, and uses a sensor for measuring the absolute position of the unmanned aerial vehicle. A step of acquiring the position of the unmanned aerial vehicle and a step of estimating the relative position of the unmanned aerial vehicle using a sensor for measuring the relative position of the unmanned aerial vehicle. The step of estimating the relative position of the unmanned aerial vehicle when it is determined that the relative position is valid, and the position obtained based on the relative position when the relative position of the unmanned aerial vehicle is estimated. If so, it is characterized by including a step of estimating the position and speed of the unmanned aerial vehicle based on the position.

また、本発明において好ましくは、上記無人航空機の位置及び速度を推定するステップは、上記無人航空機の相対位置が出力された場合、該相対位置に基づいて、上記無人航空機の速度及び該速度を補正するための加速度バイアス値を推定して出力する第1の推定ステップと、上記速度及び上記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値に基づいて、かつ上記環境取得部により上記位置が取得された場合は該位置に基づいて、上記無人航空機の位置及び速度を推定して出力する第2の推定ステップと、を含み、上記推定するステップにより推定された上記無人航空機の位置及び速度は、上記第2の推定ステップにより出力された位置及び速度である。 Further, preferably in the present invention, the step of estimating the position and speed of the unmanned aircraft corrects the speed and speed of the unmanned aircraft based on the relative position when the relative position of the unmanned aircraft is output. The first estimation step of estimating and outputting the acceleration bias value for the calculation, and when the speed and the acceleration bias value are output, based on the output speed and the acceleration bias value, and the environment acquisition unit. When the position is acquired by the above, the position and speed of the unmanned aircraft are estimated and output based on the position, and the second estimation step is included, and the unmanned aircraft estimated by the estimation step is included. The position and speed are the positions and speeds output by the second estimation step.

また、本発明において好ましくは、上記第1の推定ステップは、上記無人航空機の相対位置が出力された場合に、該相対位置を観測値として用いて、カルマンフィルタ処理を実行することにより、上記無人航空機の速度及び加速度バイアス値を推定して出力する。 Further, preferably in the present invention, in the first estimation step, when the relative position of the unmanned aerial vehicle is output, the Kalman filter process is executed using the relative position as an observed value, thereby performing the unmanned aerial vehicle. Estimates and outputs the speed and acceleration bias values of.

また、本発明において好ましくは、上記第2の推定ステップは、上記速度及び上記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値を観測値として用い、かつ上記環境取得部により上記位置が取得された場合は該位置を観測値として用いて、カルマンフィルタ処理を実行することにより、上記無人航空機の位置及び速度を推定して出力する。 Further, preferably in the present invention, in the second estimation step, when the speed and the acceleration bias value are output, the output speed and the acceleration bias value are used as observation values, and the environment acquisition unit uses the output. When the above position is acquired, the position and speed of the unmanned aircraft are estimated and output by executing the Kalman filter processing using the position as an observed value.

上記第2の推定ステップは、上記第1の推定ステップから出力される上記速度及び上記加速度バイアス値の尤度を、上記環境取得部により取得された上記位置の尤度よりも大きく設定して、上記無人航空機の位置及び速度を推定して出力する。 In the second estimation step, the likelihood of the velocity and the acceleration bias value output from the first estimation step is set to be larger than the likelihood of the position acquired by the environment acquisition unit. The position and speed of the unmanned aerial vehicle are estimated and output.

また、上記の目的を達成するために、本発明の一態様としての位置推定プログラムは、無人航空機の位置を推定するプログラムであって、上記の位置推定方法の各ステップをコンピュータに実行させることを特徴とする。 Further, in order to achieve the above object, the position estimation program as one aspect of the present invention is a program for estimating the position of an unmanned aerial vehicle, and causes a computer to execute each step of the above position estimation method. It is a feature.

また、上記の目的を達成するために、本発明の一態様としての制御方法は、無人航空機の位置を推定する方法を有する、無人航空機の飛行を制御する方法であって、上記推定するステップにより推定された上記無人航空機の位置及び速度を用いて上記無人航空機の飛行を制御するステップを含むことを特徴とする。 Further, in order to achieve the above object, the control method as one aspect of the present invention is a method of controlling the flight of an unmanned aerial vehicle having a method of estimating the position of the unmanned aerial vehicle, and by the above-mentioned estimation step. It is characterized by including a step of controlling the flight of the unmanned aerial vehicle using the estimated position and speed of the unmanned aerial vehicle.

また、上記の目的を達成するために、本発明の一態様としての制御プログラムは、無人航空機の飛行を制御するプログラムであって、上記の制御方法の各ステップをコンピュータに実行させることを特徴とする。 Further, in order to achieve the above object, the control program as one aspect of the present invention is a program for controlling the flight of an unmanned aerial vehicle, and is characterized in that each step of the above control method is executed by a computer. To do.

本発明によれば、橋梁の下方などの架設部を有する構造物の該架設部下方において無人航空機の飛行を制御するために無人航空機の位置を推定することができる。 According to the present invention, the position of the unmanned aerial vehicle can be estimated in order to control the flight of the unmanned aerial vehicle under the erection portion of the structure having the erection portion such as below the bridge.

本発明の一実施形態による無人航空機の外観図である。It is an external view of the unmanned aerial vehicle according to one Embodiment of this invention. 図1の無人航空機のハードウェア構成図である。It is a hardware block diagram of the unmanned aerial vehicle of FIG. 本発明の一実施形態による飛行制御装置の機能ブロック図である。It is a functional block diagram of the flight control device by one Embodiment of this invention. 本発明の一実施形態による第1のカルマンフィルタのブロック線図である。It is a block diagram of the 1st Kalman filter according to one Embodiment of this invention. 本発明の一実施形態による第2のカルマンフィルタのブロック線図である。It is a block diagram of the 2nd Kalman filter by one Embodiment of this invention. 本発明の一実施形態による無人航空機が橋梁の下方を飛行する様子を示す図である。It is a figure which shows the state that the unmanned aerial vehicle by one Embodiment of this invention flies under the bridge.

図1は、本発明の一実施形態による無人航空機(マルチコプタ)1の外観図である。無人航空機1は、本体部2と、6つのモータ3と、6つのロータ(回転翼)4と、本体部2及び各々のモータ3を接続する6つのアーム5と、着陸脚6と、ローカルセンサ7と、を備える。 FIG. 1 is an external view of an unmanned aerial vehicle (multicopter) 1 according to an embodiment of the present invention. The unmanned aerial vehicle 1 includes a main body 2, six motors 3, six rotors (rotor blades) 4, six arms 5 connecting the main body 2 and each motor 3, a landing gear 6, and a local sensor. 7 and.

6つのロータ4は、各々のモータ3の駆動により回転して揚力を発生させる。本体部2が6つのモータ3の駆動を制御して6つのロータ4各々の回転数、回転方向を制御することにより、上昇、下降、前後左右への飛行、旋回等、無人航空機1の飛行が制御される。着陸脚6は、離着陸時の無人航空機1の転倒防止などに寄与し、無人航空機1の本体部2モータ3、及びロータ4などを保護する。 The six rotors 4 rotate by driving each of the motors 3 to generate lift. The main body 2 controls the drive of the six motors 3 to control the rotation speed and rotation direction of each of the six rotors 4, so that the unmanned aerial vehicle 1 can fly ascending, descending, flying back and forth and left and right, turning, and the like. Be controlled. The landing gear 6 contributes to the prevention of the unmanned aerial vehicle 1 from tipping over during takeoff and landing, and protects the main body 2 motor 3 of the unmanned aerial vehicle 1, the rotor 4, and the like.

ローカルセンサ7は、レーザを用いて無人航空機1の周囲の状況を計測するレーザスキャナ(レーザレンジファインダ)である。レーザスキャナは、前方及び上方に扇状にレーザを照射し、反射して得られた情報を用いて、無人航空機1の周囲にある物体(例えば構造物などの障害物)との距離を測定するとともに、周囲にある物体の形状を作成することを可能とする。レーザを照射する方向は一例であるが、少なくとも上方を含むことが好ましい。このように本実施形態では、ローカルセンサ7としてレーザスキャナを用いるが、ローカルセンサ7は、無人航空機1の周囲にある物体に対する無人航空機1の相対位置を計測するために用いられるセンサであり、無人航空機1と周囲にある物体との位置関係を計測できるものであればよい。したがって、例えばレーザスキャナに用いるレーザは1つであってもよいし、複数であってもよい。また例えばローカルセンサ7は、超音波センサとすることもできるし、画像センサとすることもできる。上記ローカルセンサ7は、好ましくは、SLAM技術を利用する際に用いられる。 The local sensor 7 is a laser scanner (laser range finder) that measures the surrounding conditions of the unmanned aerial vehicle 1 using a laser. The laser scanner irradiates the laser in a fan shape forward and upward, and uses the information obtained by the reflection to measure the distance to an object (for example, an obstacle such as a structure) around the unmanned aerial vehicle 1. , Makes it possible to create the shape of surrounding objects. The direction of irradiating the laser is an example, but it is preferable to include at least the upper side. As described above, in the present embodiment, the laser scanner is used as the local sensor 7, and the local sensor 7 is a sensor used to measure the relative position of the unmanned aerial vehicle 1 with respect to an object around the unmanned aerial vehicle 1, and is unmanned. Anything that can measure the positional relationship between the aircraft 1 and surrounding objects is sufficient. Therefore, for example, the number of lasers used in the laser scanner may be one or may be plural. Further, for example, the local sensor 7 can be an ultrasonic sensor or an image sensor. The local sensor 7 is preferably used when utilizing SLAM technology.

例えばローカルセンサ7が画像センサである場合、無人航空機1は撮像装置を含む。撮像装置は、イメージセンサなどから構成される単眼カメラ又はステレオカメラを含み、無人航空機1の周囲を撮像することにより、無人航空機1周囲の映像や画像を取得する。この場合、好ましくは、無人航空機1は、カメラの向きを変更可能なモータを備え、飛行制御装置11は、カメラ及び該モータの動作を制御する。例えば無人航空機1は単眼カメラを用いて連続して画像を取得し、又はステレオカメラを用いて画像を取得するなどし、取得された画像を解析することにより、周囲にある物体との距離や該物体の形状の情報を取得する。撮像装置は、赤外線投影により形状データを取得可能な赤外線デプスセンサであってもよい。 For example, if the local sensor 7 is an image sensor, the unmanned aerial vehicle 1 includes an image pickup device. The image pickup apparatus includes a monocular camera or a stereo camera composed of an image sensor or the like, and acquires an image or an image of the surroundings of the unmanned aerial vehicle 1 by taking an image of the surroundings of the unmanned aerial vehicle 1. In this case, preferably, the unmanned aerial vehicle 1 includes a motor capable of changing the direction of the camera, and the flight control device 11 controls the operation of the camera and the motor. For example, the unmanned aerial vehicle 1 continuously acquires images using a monocular camera, or acquires images using a stereo camera, and analyzes the acquired images to obtain the distance to surrounding objects and the said. Acquires information on the shape of an object. The image pickup apparatus may be an infrared depth sensor capable of acquiring shape data by infrared projection.

ローカルセンサ7は、本体部2の外部に取り付けられたものとして説明するが、無人航空機1と周囲環境との位置関係を計測できるものであれば本体部2の内部に取り付けられてもよい。 Although the local sensor 7 will be described as being attached to the outside of the main body 2, it may be attached to the inside of the main body 2 as long as it can measure the positional relationship between the unmanned aerial vehicle 1 and the surrounding environment.

図2は、図1の無人航空機1のハードウェア構成図である。無人航空機1の本体部2は、飛行制御装置(フライトコントローラ)11と、送受信機12と、センサ13と、スピードコントローラ(ESC:Electric Speed Controller)14と、バッテリ電源(図示せず)と、を備える。 FIG. 2 is a hardware configuration diagram of the unmanned aerial vehicle 1 of FIG. The main body 2 of the unmanned aerial vehicle 1 includes a flight control device (flight controller) 11, a transmitter / receiver 12, a sensor 13, a speed controller (ESC: Electric Speed Controller) 14, and a battery power supply (not shown). Be prepared.

送受信機12は、外部との各種データ信号の送受信を行うものであり、アンテナを含む。説明の便宜上、送受信機12は1つの装置として説明するが、送信機と受信機が別々に設置されていても構わない。 The transmitter / receiver 12 transmits / receives various data signals to / from the outside, and includes an antenna. For convenience of explanation, the transmitter / receiver 12 will be described as one device, but the transmitter and the receiver may be installed separately.

センサ13は、無人航空機1の絶対位置を計測するために用いられるグローバルセンサを含む。グローバルセンサは、位置情報を取得するGPSセンサ、加速度を取得する加速度センサ、姿勢を検出するジャイロセンサ、高度を取得する気圧センサ、及び方位を取得する地磁気センサなどの各種センサを含む。このように、グローバルセンサは、周囲にある物体との位置関係により無人航空機1の相対位置を計測するために用いられるセンサではない。無人航空機1は、これらのセンサ13やローカルセンサ7から取得される情報により、機体の傾きや回転、飛行中の緯度経度、高度、及び機体の方向を含む無人航空機の位置情報を取得可能に構成される。ただし、説明の便宜上、センサ13は本体部2の内部にあるものとして説明したが、センサ13が含む一部又は全部のセンサは、本体部2の外に取り付けられてもよい。 The sensor 13 includes a global sensor used to measure the absolute position of the unmanned aerial vehicle 1. Global sensors include various sensors such as a GPS sensor that acquires position information, an acceleration sensor that acquires acceleration, a gyro sensor that detects attitude, a pressure sensor that acquires altitude, and a geomagnetic sensor that acquires orientation. As described above, the global sensor is not a sensor used to measure the relative position of the unmanned aerial vehicle 1 based on the positional relationship with surrounding objects. The unmanned aerial vehicle 1 is configured to be able to acquire the position information of the unmanned aerial vehicle including the tilt and rotation of the airframe, the latitude and longitude during flight, the altitude, and the direction of the airframe based on the information acquired from these sensors 13 and the local sensor 7. Will be done. However, for convenience of explanation, the sensor 13 has been described as being inside the main body 2, but some or all of the sensors included in the sensor 13 may be attached to the outside of the main body 2.

飛行制御装置11は、各種情報に基づいて演算処理を行い、無人航空機1を制御する。飛行制御装置11は、プロセッサ21と、記憶装置22と、通信用IF23と、センサ用IF24と、信号変換回路25と、を備える。これらはバス26を介して接続される。 The flight control device 11 performs arithmetic processing based on various information to control the unmanned aerial vehicle 1. The flight control device 11 includes a processor 21, a storage device 22, a communication IF 23, a sensor IF 24, and a signal conversion circuit 25. These are connected via the bus 26.

プロセッサ21は、飛行制御装置11全体の動作を制御するものであり、例えばCPUである。なお、プロセッサとしては、MPU等の電子回路が用いられてもよい。プロセッサ21は、記憶装置22に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。 The processor 21 controls the operation of the entire flight control device 11, and is, for example, a CPU. As the processor, an electronic circuit such as an MPU may be used. The processor 21 executes various processes by reading and executing a program or data stored in the storage device 22.

記憶装置22は、主記憶装置22a及び補助記憶装置22bを含む。主記憶装置22aは、例えばRAMのような半導体メモリである。RAMは、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサが情報を処理する際の記憶領域及び作業領域として用いられる。主記憶装置22aは、読み出し専用の不揮発性記憶媒体であるROMを含んでいてもよい。この場合、ROMはファームウェア等のプログラムを格納する。補助記憶装置22bは、様々なプログラムや、各プログラムの実行に際してプロセッサ21が使用するデータを格納する。補助記憶装置22bは、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置22bは、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。 The storage device 22 includes a main storage device 22a and an auxiliary storage device 22b. The main storage device 22a is a semiconductor memory such as a RAM. The RAM is a volatile storage medium capable of reading and writing information at high speed, and is used as a storage area and a work area when a processor processes information. The main storage device 22a may include a ROM, which is a read-only non-volatile storage medium. In this case, the ROM stores programs such as firmware. The auxiliary storage device 22b stores various programs and data used by the processor 21 when executing each program. The auxiliary storage device 22b is, for example, a hard disk device, but may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable. The auxiliary storage device 22b stores, for example, an operating system (OS), middleware, application programs, various data that can be referred to when these programs are executed, and the like.

通信用IF23は、送受信機12と接続するためのインタフェースである。センサ用IF24は、各種センサ13又はローカルセンサ7により取得されたデータを入力するためのインタフェースである。説明の便宜上、各IFは1つのものとして説明するが、各装置やセンサごとに異なるIFを備えることができることは理解される。 The communication IF 23 is an interface for connecting to the transmitter / receiver 12. The sensor IF 24 is an interface for inputting data acquired by various sensors 13 or a local sensor 7. For convenience of description, each IF will be described as one, but it is understood that different IFs can be provided for each device or sensor.

信号変換回路25は、例えばPWM信号などのパルス信号を生成し、ESC14へ送る。ESC14は、信号変換回路25により生成されたパルス信号をモータ3への駆動電流へと変換し、該電流をモータ3へ供給する。 The signal conversion circuit 25 generates a pulse signal such as a PWM signal and sends it to the ESC 14. The ESC 14 converts the pulse signal generated by the signal conversion circuit 25 into a drive current to the motor 3 and supplies the current to the motor 3.

バッテリ電源は、リチウムポリマーバッテリやリチウムイオンバッテリ等のバッテリデバイスであり、各構成要素に電力を供給する。なおモータ3を動作させるためには大きな電源が必要となるため、好ましくは、ESC14は、直接バッテリ電源と接続され、バッテリ電源の電圧や電流を調整して駆動電流をモータ3へ供給する。 The battery power source is a battery device such as a lithium polymer battery or a lithium ion battery, and supplies electric power to each component. Since a large power source is required to operate the motor 3, the ESC 14 is preferably directly connected to the battery power source, adjusts the voltage and current of the battery power source, and supplies the drive current to the motor 3.

好ましくは、記憶装置22は、無人航空機1の飛行時における姿勢や基本的な飛行動作を制御する飛行制御アルゴリズムが実装された飛行制御プログラムを記憶する。プロセッサ21が飛行制御プログラムを実行することにより、飛行制御装置11は、設定された目標高度及び目標速度となるように演算処理を行い、各モータ3の回転数や回転速度を計算して制御指令値データを算出する。このとき飛行制御装置11は、飛行中の無人航空機1の姿勢などの様々な情報を各種センサ13から取得し、取得したデータと設定された目標高度及び目標速度とに基づいて演算処理を行う。 Preferably, the storage device 22 stores a flight control program in which a flight control algorithm for controlling the attitude and basic flight movements of the unmanned aerial vehicle 1 during flight is implemented. When the processor 21 executes the flight control program, the flight control device 11 performs arithmetic processing so as to reach the set target altitude and target speed, calculates the rotation speed and rotation speed of each motor 3, and gives a control command. Calculate value data. At this time, the flight control device 11 acquires various information such as the attitude of the unmanned aerial vehicle 1 in flight from various sensors 13, and performs arithmetic processing based on the acquired data and the set target altitude and target speed.

飛行制御装置11の信号変換回路25は、上記のとおり算出された制御指令値データをPWM信号へ変換し、ESC14へ送る。ESC14は、信号変換回路25から受け付けた信号をモータ3への駆動電流へと変換してモータ3へ供給することによりモータ3を回転させる。このようにして、飛行制御装置11を含む本体部2は、ロータ4の回転速度を制御し、無人航空機1の飛行を制御する。 The signal conversion circuit 25 of the flight control device 11 converts the control command value data calculated as described above into a PWM signal and sends it to the ESC 14. The ESC 14 rotates the motor 3 by converting the signal received from the signal conversion circuit 25 into a drive current to the motor 3 and supplying the signal to the motor 3. In this way, the main body 2 including the flight control device 11 controls the rotation speed of the rotor 4 and controls the flight of the unmanned aerial vehicle 1.

このような無人航空機1の飛行を制御するにあたって、飛行制御装置11は無人航空機1の高度(又は位置)及び速度を決定する必要がある。ただし、各種センサ13等から取得した情報をそのまま用いると誤差が大きくなる恐れがある。本実施形態では、飛行制御装置11は、各種センサ13等から取得した情報に基づいて無人航空機1の高度(又は位置)及び速度を決定(推定)する。 In controlling the flight of such an unmanned aerial vehicle 1, the flight control device 11 needs to determine the altitude (or position) and speed of the unmanned aerial vehicle 1. However, if the information acquired from the various sensors 13 and the like is used as it is, the error may increase. In the present embodiment, the flight control device 11 determines (estimates) the altitude (or position) and speed of the unmanned aerial vehicle 1 based on the information acquired from various sensors 13 and the like.

1つの例では、飛行制御プログラムは、緯度経度や高度を含む飛行ルートや飛行速度などのパラメータを含み、飛行制御装置11は、目標高度及び目標速度を逐次決定して上記演算処理を行うことにより、無人航空機1を自律的に飛行させる。 In one example, the flight control program includes parameters such as flight route and flight speed including latitude / longitude and altitude, and the flight control device 11 sequentially determines the target altitude and target speed and performs the above arithmetic processing. , The unmanned aircraft 1 is made to fly autonomously.

1つの例では、飛行制御装置11は、送受信機12を介して外部の送信機から上昇下降・前進後退などの指示を受信することで、目標高度及び目標速度を決定して上記演算処理を行うことにより、無人航空機1の飛行を制御する。 In one example, the flight control device 11 determines the target altitude and the target speed by receiving instructions such as ascending / descending / advancing / retreating from an external transmitter via the transmitter / receiver 12, and performs the above arithmetic processing. By doing so, the flight of the unmanned aerial vehicle 1 is controlled.

1つの例では、無人航空機1は、無人航空機1が実際に飛行した位置情報の時系列データや各位置において取得した画像データを補助記憶装置22bに記憶する。 In one example, the unmanned aerial vehicle 1 stores the time-series data of the position information actually flew by the unmanned aerial vehicle 1 and the image data acquired at each position in the auxiliary storage device 22b.

1つの例では、無人航空機1は自立飛行型無人航空機である。例えば、無人航空機1は、市販されているミニサーベイヤーMS−06LA(株式会社自律制御システム研究所)、Snap(Vantage Robotics社)、AR.Drone2.0(Parrot社)、Bebop Drone(Parrot社)とすることができる。 In one example, the unmanned aerial vehicle 1 is a self-contained unmanned aerial vehicle. For example, the unmanned aerial vehicle 1 is a commercially available mini surveyor MS-06LA (Autonomous Control Systems Laboratory Co., Ltd.), Snap (Vantage Robotics), AR. It can be Drone 2.0 (Parrot) or Bebop Drone (Parrot).

以下、架設部を有する構造物の該架設部下方、例えば橋梁の下方、において無人航空機1を飛行させる場合において、飛行制御装置11が橋梁の下面と一定以上の距離を保持して無人航空機1を飛行させるための制御を行う実施形態について説明する。本実施形態では、飛行制御装置11は、高さ方向(鉛直方向)の位置及び速度を制御するものとし、当該制御にあたって飛行制御装置11は、第1の推定器と第2の推定器を用いて推定高度及び推定鉛直方向速度(以下、単に「推定速度」という)を算出する。なお本実施形態では、説明の便宜上、鉛直方向(高さ方向)について説明するが、本実施形態による飛行制御装置11の制御は水平方向にも応用することができることは理解される。また本実施形態では、第1の推定器として第1のカルマンフィルタ(第1のKF)33を用い、第2の推定器として第2のカルマンフィルタ(第2のKF)34を用いるが、推定器はこれらに限定されない。 Hereinafter, when the unmanned aerial vehicle 1 is flown below the erection portion of the structure having the erection portion, for example, below the bridge, the flight control device 11 maintains the unmanned aerial vehicle 1 at a certain distance or more from the lower surface of the bridge. An embodiment in which control for flying is performed will be described. In the present embodiment, the flight control device 11 controls the position and speed in the height direction (vertical direction), and the flight control device 11 uses the first estimator and the second estimator for the control. The estimated altitude and the estimated vertical velocity (hereinafter, simply referred to as "estimated velocity") are calculated. In the present embodiment, the vertical direction (height direction) will be described for convenience of explanation, but it is understood that the control of the flight control device 11 according to the present embodiment can also be applied to the horizontal direction. Further, in the present embodiment, the first Kalman filter (first KF) 33 is used as the first estimator, and the second Kalman filter (second KF) 34 is used as the second estimator. Not limited to these.

図3は、本発明の一実施形態による飛行制御装置11の機能ブロック図である。飛行制御装置11は、環境取得部31と、自己位置推定部32と、第1の33と、第2のKF34と、を備える。本実施形態においては、プロセッサ21によりプログラムが実行されることにより、これらの機能が実現される。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。図中の矢印は、各部間の主な情報のやりとりを示すが、本発明の実施形態による動作を実現できるものであれば、これらに限定されない。好ましくは、飛行制御装置11は、例えば読み込むプログラムにより定められた周期に従って演算を行い、データのやりとりを当該周期ごとに行う。ただし、上記の各機能は、電子回路等を構成することによりハードウェアによって実現してもよい。また本実施形態において、上記の機能は飛行制御装置11の機能として説明するが、当該機能は無人航空機1の飛行を制御するために必要な無人航空機1の位置を推定する機能である。したがって、1つの例では、飛行制御装置11は位置推定装置を備え、位置推定装置が、環境取得部31と、自己位置推定部32と、第1の33と、第2のKF34と、を備える。 FIG. 3 is a functional block diagram of the flight control device 11 according to the embodiment of the present invention. The flight control device 11 includes an environment acquisition unit 31, a self-position estimation unit 32, a first 33, and a second KF 34. In the present embodiment, these functions are realized by executing the program by the processor 21. In this way, since various functions are realized by reading the program, a part of one part (function) may be possessed by another part. The arrows in the figure indicate the main exchange of information between the parts, but are not limited to these as long as the operation according to the embodiment of the present invention can be realized. Preferably, the flight control device 11 performs calculations according to a cycle determined by, for example, a program to be read, and exchanges data for each cycle. However, each of the above functions may be realized by hardware by configuring an electronic circuit or the like. Further, in the present embodiment, the above function will be described as a function of the flight control device 11, but the function is a function of estimating the position of the unmanned aerial vehicle 1 necessary for controlling the flight of the unmanned aerial vehicle 1. Therefore, in one example, the flight control device 11 includes a position estimation device, and the position estimation device includes an environment acquisition unit 31, a self-position estimation unit 32, a first 33, and a second KF 34. ..

環境取得部31は、グローバルセンサを用いて無人航空機1の位置を取得する。本実施形態では、グローバルセンサは気圧センサ及び加速度センサを含み、環境取得部31は気圧センサを用いて絶対高度を取得し、加速度センサを用いて加速度を取得する。環境取得部31は、第1のKF33に取得した加速度データを出力し、第2のKF34に取得した加速度データ及び絶対高度データを出力する。なお本明細書において、データの出力とは、各機能部(例えば各プログラム)間でのデータの受け渡しを意味する。例えば、環境取得部31は、気圧センサを用いて取得した絶対高度を記憶装置22の所定のメモリ領域に記憶し更新し続ける。この場合、第1のKF33は、演算を行う周期ごとに、絶対高度が更新(記憶)される当該メモリ領域を参照し、更新された場合に当該データを使用する。 The environment acquisition unit 31 acquires the position of the unmanned aerial vehicle 1 using the global sensor. In the present embodiment, the global sensor includes a barometric pressure sensor and an acceleration sensor, and the environment acquisition unit 31 acquires the absolute altitude using the barometric pressure sensor and acquires the acceleration using the acceleration sensor. The environment acquisition unit 31 outputs the acquired acceleration data to the first KF33, and outputs the acquired acceleration data and absolute altitude data to the second KF34. In the present specification, the output of data means the transfer of data between each functional unit (for example, each program). For example, the environment acquisition unit 31 stores and continuously updates the absolute altitude acquired by using the barometric pressure sensor in a predetermined memory area of the storage device 22. In this case, the first KF33 refers to the memory area whose absolute altitude is updated (stored) for each cycle of calculation, and uses the data when it is updated.

自己位置推定部32は、レーザスキャナ(ローカルセンサ7)を用いて取得された障害物などの無人航空機1の周囲にある物体の点群データに基づいて無人航空機1の自己位置を推定する。障害物は、例えば架設部を有する構造物である。自己位置推定部32が推定する自己位置は、無人航空機1周囲の物体に対する無人航空機1の相対位置である。本実施形態では、自己位置推定部32は、SLAM技術を利用して無人航空機1の自己位置を推定する。SLAM技術は、既知の技術であるため説明は省略するが、レーザスキャナなどのローカルセンサ7を用いて周囲にある物体認識を行い、該物体認識結果に基づいて自己位置推定と地図作成とを同時に行うものである。本実施形態では、飛行制御装置11は橋梁の下面と一定以上の距離を保持して無人航空機1を飛行させるための制御を行うため、前述のとおり、SLAM技術を利用する際に用いるレーザスキャナは、少なくとも上方向にレーザを照射してスキャンできるように本体部2に取り付けられる。 The self-position estimation unit 32 estimates the self-position of the unmanned aerial vehicle 1 based on the point cloud data of objects around the unmanned aerial vehicle 1 such as obstacles acquired by using a laser scanner (local sensor 7). The obstacle is, for example, a structure having an erection part. The self-position estimated by the self-position estimation unit 32 is the relative position of the unmanned aerial vehicle 1 with respect to the objects around the unmanned aerial vehicle 1. In the present embodiment, the self-position estimation unit 32 estimates the self-position of the unmanned aerial vehicle 1 by using SLAM technology. Since the SLAM technology is a known technology, its description is omitted, but it recognizes surrounding objects using a local sensor 7 such as a laser scanner, and simultaneously estimates its own position and creates a map based on the object recognition results. It is something to do. In the present embodiment, the flight control device 11 controls to fly the unmanned aerial vehicle 1 while maintaining a certain distance from the lower surface of the bridge. Therefore, as described above, the laser scanner used when using the SLAM technology is , At least attached to the main body 2 so that it can be scanned by irradiating the laser upward.

自己位置推定部32は、自己位置推定の尤度に基づいて推定された位置が有効であると判定された場合に無人航空機1の位置を出力する。本実施形態では、自己位置推定部32は、SLAM技術を利用して無人航空機1の相対高度を推定して出力する。 The self-position estimation unit 32 outputs the position of the unmanned aerial vehicle 1 when it is determined that the position estimated based on the likelihood of self-position estimation is valid. In the present embodiment, the self-position estimation unit 32 estimates and outputs the relative altitude of the unmanned aerial vehicle 1 by using SLAM technology.

1つの例では、自己位置推定部32は、レーザスキャナを用いて無人航空機1の周囲の点群データを取得する。自己位置推定部32は、レーザによる測距距離が所定距離範囲(例えば0.1〜20m)内の点群データを取得できた場合に推定の演算を開始し、その点群データを取得し始めたタイミングにいた自己位置を基準座標と定める。それから自己位置推定部32は、取得した点群データを用いて、マップを作成しつつ自己位置を推定する。自己位置推定部32は、作成されたマップとレーザを用いて取得された点群データとの一致度を自己位置推定の尤度として算出する。自己位置推定部32は、算出された自己位置推定の尤度が予め設定した基準値以上であるか否かを判定し、基準値以上であれば有効、基準値未満であれば有効でないと判定する。例えば障害物が所定の距離内に存在しない場合、自己位置推定部32は自己位置推定の尤度は基準値未満となり、有効な自己位置推定を行うことができない。このようにして、自己位置推定部32は、無人航空機1が障害物に所定距離以内に近づいた場合かつ自己位置推定を行うにあたって十分な点群データが収集された場合に、無人航空機1の相対高度を推定して出力するように構成される。 In one example, the self-position estimation unit 32 uses a laser scanner to acquire point cloud data around the unmanned aerial vehicle 1. The self-position estimation unit 32 starts the estimation calculation when the point cloud data within the predetermined distance range (for example, 0.1 to 20 m) can be acquired by the distance measurement distance by the laser, and starts to acquire the point cloud data. The self-position at the right timing is set as the reference coordinate. Then, the self-position estimation unit 32 estimates the self-position while creating a map using the acquired point cloud data. The self-position estimation unit 32 calculates the degree of coincidence between the created map and the point cloud data acquired by using the laser as the likelihood of self-position estimation. The self-position estimation unit 32 determines whether or not the calculated likelihood of self-position estimation is equal to or higher than a preset reference value, and if it is greater than or equal to the reference value, it is determined to be valid, and if it is less than the reference value, it is determined not to be valid. To do. For example, when the obstacle does not exist within a predetermined distance, the self-position estimation unit 32 has a likelihood of self-position estimation less than the reference value, and cannot perform effective self-position estimation. In this way, the self-position estimation unit 32 determines the relative of the unmanned aerial vehicle 1 when the unmanned aerial vehicle 1 approaches an obstacle within a predetermined distance and when sufficient point cloud data is collected for self-position estimation. It is configured to estimate and output the altitude.

ただし、自己位置推定部32の構成は上記に限定されない。例えば、自己位置推定部32は、加速度センサやジャイロセンサを用いて取得したオドメトリ情報を自己位置推定に用いることができる。また自己位置推定部32は、撮像装置を用いて画像を取得し、取得した画像における物体の位置又は表面上の点を特徴点して抽出し、抽出したパターンと作成されたマップ(又は取得した点群)のパターンをマッチングさせることもできる。また自己位置推定の尤度についても、上記の例示に限定されない。 However, the configuration of the self-position estimation unit 32 is not limited to the above. For example, the self-position estimation unit 32 can use the odometry information acquired by using the acceleration sensor or the gyro sensor for the self-position estimation. Further, the self-position estimation unit 32 acquires an image using an imaging device, extracts the position of an object in the acquired image or a point on the surface as a feature point, and extracts the extracted pattern and the created map (or acquired). It is also possible to match the patterns of point clouds). Further, the likelihood of self-position estimation is not limited to the above example.

第1のKF33は、自己位置推定部32により出力された無人航空機1の相対高度(相対位置)を観測値として用いて、無人航空機1の速度及び該速度を補正するための加速度バイアス値を推定する。第1のKF33は、本実施形態では無人航空機1の相対高度を観測値として用いる。第1のKF33は、推定された速度及び加速度バイアス値を、第2のKF34に出力する。好ましくは、第1のKF33は、自己位置推定部32により無人航空機1の相対高度が出力された場合に、該相対高度を観測値として用いて、無人航空機1の速度及び加速度バイアス値を推定し、第2のKF34に出力する。また第1のKF33は、環境取得部31から取得された加速度を制御入力として用いる。 The first KF33 estimates the speed of the unmanned aerial vehicle 1 and the acceleration bias value for correcting the speed by using the relative altitude (relative position) of the unmanned aerial vehicle 1 output by the self-position estimation unit 32 as an observed value. To do. The first KF33 uses the relative altitude of the unmanned aerial vehicle 1 as an observed value in this embodiment. The first KF33 outputs the estimated velocity and acceleration bias values to the second KF34. Preferably, when the self-position estimation unit 32 outputs the relative altitude of the unmanned aerial vehicle 1, the first KF 33 estimates the speed and acceleration bias value of the unmanned aerial vehicle 1 by using the relative altitude as an observed value. , Output to the second KF34. Further, the first KF 33 uses the acceleration acquired from the environment acquisition unit 31 as a control input.

第2のKF34は、第1のKF33が速度及び加速度バイアス値を出力した場合は該出力された速度及び加速度バイアス値を観測値として用いて、環境取得部31により絶対高度(絶対位置)が取得(出力)された場合は該絶対高度を観測値として用いて、無人航空機1の絶対高度及び速度を推定する。第2のKF34は、推定された絶対高度及び速度を、例えば飛行制御プログラムが推定高度(推定位置)及び推定速度として参照するメモリ領域に記憶し更新する。また第2のKF34は、環境取得部31から取得された加速度を制御入力として用いる。 When the first KF33 outputs the velocity and acceleration bias values, the second KF34 uses the output velocity and acceleration bias values as observation values, and the environment acquisition unit 31 acquires the absolute altitude (absolute position). When (output), the absolute altitude and speed of the unmanned aircraft 1 are estimated using the absolute altitude as an observed value. The second KF34 stores and updates the estimated absolute altitude and velocity in, for example, a memory area referred to by the flight control program as the estimated altitude (estimated position) and estimated velocity. Further, the second KF 34 uses the acceleration acquired from the environment acquisition unit 31 as a control input.

上記のとおり、飛行制御装置11は、2段構成のカルマンフィルタを利用して、第2のKF34により推定された位置及び速度を、無人航空機1の推定位置及び推定速度として用いて無人航空機1の飛行を制御する。1つの例では、自己位置推定部32が推定する相対位置を用いて、飛行制御装置11は、無人航空機1と障害物との距離を決定する。飛行制御装置11は、無人航空機1の推定位置及び推定速度を用いて、該決定された無人航空機1と障害物との距離を一定以上に保持して衝突を回避するように無人航空機1の飛行を制御する。この場合、例えば、飛行制御装置11は、決定された無人航空機1と障害物との距離に応じて、該距離が小さくなる場合は目標速度を減衰させることにより、該距離を一定以上に保持する。また、1つの例では、飛行制御装置11は、無人航空機1の推定位置及び推定速度を用いて、橋梁の下面と一定の距離を保持するように無人航空機1の飛行を制御する。 As described above, the flight control device 11 utilizes the Kalman filter having a two-stage configuration and uses the position and speed estimated by the second KF34 as the estimated position and estimated speed of the unmanned aerial vehicle 1 to fly the unmanned aerial vehicle 1. To control. In one example, the flight control device 11 determines the distance between the unmanned aerial vehicle 1 and the obstacle using the relative position estimated by the self-position estimation unit 32. The flight control device 11 uses the estimated position and estimated speed of the unmanned aerial vehicle 1 to maintain the determined distance between the unmanned aerial vehicle 1 and the obstacle at a certain level or more to avoid a collision. To control. In this case, for example, the flight control device 11 keeps the distance above a certain level by attenuating the target speed when the distance becomes small according to the determined distance between the unmanned aerial vehicle 1 and the obstacle. .. Further, in one example, the flight control device 11 uses the estimated position and estimated speed of the unmanned aerial vehicle 1 to control the flight of the unmanned aerial vehicle 1 so as to maintain a constant distance from the lower surface of the bridge.

以下、第1のKF33及び第2のKF34の動作の詳細について、本実施形態において想定する状態空間モデルを用いて、説明する。一般的なカルマンフィルタの動作原理は公知であるため、詳細な説明は省略するが、カルマンフィルタは、時系列のモデルに基づいた状態推定である。このような状態空間モデルを構築することにより、観測された時系列データと、該時系列データの背後に含まれている状態変数を推定することが可能となる。 Hereinafter, the details of the operation of the first KF33 and the second KF34 will be described using the state space model assumed in the present embodiment. Since the operating principle of a general Kalman filter is known, detailed description thereof will be omitted, but the Kalman filter is a state estimation based on a time series model. By constructing such a state space model, it is possible to estimate the observed time series data and the state variables contained behind the time series data.

本実施形態の第1のKF33の状態空間モデル(プロセスモデル)を以下に記す。式(1)は状態方程式であり、式(2)は観測方程式を示す。図4は、第1のKF33のブロック線図である。

Figure 0006900029
The state space model (process model) of the first KF33 of the present embodiment is described below. Equation (1) is an equation of state, and equation (2) is an observation equation. FIG. 4 is a block diagram of the first KF33.
Figure 0006900029

ここで、kは時系列データにおける時間を表すものであり、整数で表される。x1(k)は、時刻kにおける状態変数(状態ベクトル)、A1はシステム行列(状態遷移行列)、B1は駆動行列、u1(k)は制御入力、Nv(k)はシステム雑音(プロセスノイズ)である(一般的にはv(k)で表されるが、後述の速度v(k)と識別するため本明細書ではNv(k)と表記する)。式(1)から理解されるように、状態方程式は、時刻kにおける状態ベクトルと、1ステップ前の時刻k−1における状態ベクトルとの関係を示すものである。y1(k)は、時刻kにおいて入力される観測量、c1は観測行列、w(k)は観測雑音を示すものである。システム雑音と観測雑音は、平均値が0、分散値が設計値のガウス分布に基づくものであり、カルマンフィルタを適用する場合の前提条件となるものである。y1(k)は、自己位置推定部32から相対高度のデータが出力(更新)されたときの観測値である。これらの値は、具体的には以下のとおりである。

Figure 0006900029
Here, k represents time in time series data and is represented by an integer. x 1 (k) is the state variable (state vector) at time k, A 1 is the system matrix (state transition matrix), B 1 is the drive matrix, u 1 (k) is the control input, and Nv (k) is the system noise. (Process noise) (generally represented by v (k), but in order to distinguish it from the velocity v (k) described later, it is expressed as Nv (k) in the present specification). As can be understood from the equation (1), the equation of state shows the relationship between the state vector at time k and the state vector at time k-1 one step before. y 1 (k) is the observed amount input at time k, c 1 is the observation matrix, and w (k) is the observed noise. The system noise and the observed noise are based on the Gaussian distribution in which the average value is 0 and the variance value is the design value, which are prerequisites for applying the Kalman filter. y 1 (k) is an observed value when the relative altitude data is output (updated) from the self-position estimation unit 32. Specifically, these values are as follows.
Figure 0006900029

式(3)〜式(7)から、式(1)は、以下の式(9)〜(11)を表していることが理解される。

Figure 0006900029
From equations (3) to (7), it is understood that equation (1) represents the following equations (9) to (11).
Figure 0006900029

ここで、v(k)は無人航空機1の速度、Zrel(k)は無人航空機1の相対高度、abias(k)はv(k)を補正するための加速度バイアス値であり、それぞれ時刻kにおける値を示す。aは加速度であり、制御入力u1(k)には、加速度センサにより取得された加速度が入力される。また飛行制御装置11は、飛行制御プログラムなどのプログラムにより定められた周期に従って演算を行うものであるが、dtは、時刻kから時刻k+1までの1ステップの微小時間を示すものである。例えば、第1のKF33を50Hzループで動作させた場合、dt=0.02(s)となる。この場合好ましくは第2のKF34も50Hzループで動作させる。 Here, v (k) is the speed of the unmanned aerial vehicle 1, Z rel (k) is the relative altitude of the unmanned aerial vehicle 1, and a bias (k) is the acceleration bias value for correcting v (k). The value in k is shown. a is an acceleration, and the acceleration acquired by the acceleration sensor is input to the control input u 1 (k). Further, the flight control device 11 performs calculations according to a cycle determined by a program such as a flight control program, and dt indicates a minute time of one step from time k to time k + 1. For example, when the first KF33 is operated in a 50 Hz loop, dt = 0.02 (s). In this case, preferably, the second KF34 is also operated in a 50 Hz loop.

次に、第1のKF33における予測ステップ及びフィルタリングステップの処理について説明し、各値の尤度について説明する。 Next, the processing of the prediction step and the filtering step in the first KF33 will be described, and the likelihood of each value will be described.

予測ステップは、時刻k−1までに利用可能なデータに基づいた時刻kにおける、

Figure 0006900029
The prediction step is at time k based on the data available by time k-1.
Figure 0006900029

フィルタリングステップは、観測値

Figure 0006900029
を用いて、事前推定値
Figure 0006900029
を修正して事後推定値
Figure 0006900029
を推定し、事後誤差共分散行列
Figure 0006900029
を推定する処理であり、以下の式(14)〜(16)で表される。
Figure 0006900029
The filtering step is the observed value
Figure 0006900029
Pre-estimated value using
Figure 0006900029
Correct the ex post facto estimate
Figure 0006900029
Estimate the posterior error covariance matrix
Figure 0006900029
Is a process for estimating, and is represented by the following equations (14) to (16).
Figure 0006900029

Figure 0006900029
はカルマンゲインである。Qはシステム雑音の分散行列であり、空間状態モデルの尤度を示す。Rは観測ノイズの分散行列であり、観測値の尤度を示すものである。
Figure 0006900029
は推定値の分散行列であり、推定値の尤度を示すものである。
Figure 0006900029
Is Kalman gain. Q is the variance matrix of the system noise and indicates the likelihood of the spatial state model. R is a variance matrix of the observed noise and indicates the likelihood of the observed value.
Figure 0006900029
Is a variance matrix of the estimated values and indicates the likelihood of the estimated values.

上記より、第1のKF33が、プログラムの演算周期に従って予測ステップのみを実行し続けると、

Figure 0006900029
の値が増加し続け、推定値の尤度が低下する。第1のKF33は、観測値が得られたタイミングで、
Figure 0006900029
が小さい大きさとなる
Figure 0006900029
演算され、推定誤差
Figure 0006900029
が減少し、推定値の尤度が増加する。 From the above, when the first KF33 continues to execute only the prediction step according to the calculation cycle of the program,
Figure 0006900029
The value of is continuously increasing and the likelihood of the estimated value is decreasing. The first KF33 is the timing when the observed value is obtained.
Figure 0006900029
Becomes a small size
Figure 0006900029
Calculated and estimated error
Figure 0006900029
Decreases and the likelihood of the estimate increases.

第1のKF33は、自己位置推定部32から相対高度が出力されるとき、フィルタリングステップの処理を行い、無人航空機1の速度及び加速度バイアス値を推定してKF2に出力する。第1のKF33は、自己位置推定部32から相対高度が出力され続けるとき、プログラムの演算周期に従って、フィルタリングステップの処理を継続し、無人航空機1の速度及び加速度バイアス値を推定してKF2に出力し続ける。 When the relative altitude is output from the self-position estimation unit 32, the first KF 33 performs a filtering step process, estimates the speed and acceleration bias value of the unmanned aerial vehicle 1, and outputs the relative altitude to the KF 2. When the relative altitude continues to be output from the self-position estimation unit 32, the first KF33 continues the processing of the filtering step according to the calculation cycle of the program, estimates the speed and acceleration bias value of the unmanned aerial vehicle 1, and outputs it to the KF2. Continue to do.

一方、第1のKF33は、自己位置推定部32から相対高度が出力されないとき、予測ステップの処理のみ行い、推定する無人航空機1の速度及び加速度バイアス値をKF2に出力しない。ただし、自己位置推定部32から相対高度が出力されなくなったとき、状態ベクトルはフィルタリングステップの処理を行ったときの速度及び加速度バイアス値を保持しているため、推定する無人航空機1の速度及び加速度バイアス値の精度劣化を防ぐことができる。 On the other hand, when the relative altitude is not output from the self-position estimation unit 32, the first KF 33 only processes the prediction step and does not output the estimated speed and acceleration bias value of the unmanned aerial vehicle 1 to the KF2. However, when the relative altitude is no longer output from the self-position estimation unit 32, the state vector holds the velocity and acceleration bias values when the filtering step is processed, so that the velocity and acceleration of the unmanned aircraft 1 to be estimated are estimated. It is possible to prevent deterioration of the accuracy of the bias value.

このようにして、第1のKF33は、推定誤差

Figure 0006900029
が比較的小さい推定値に限定して、第2のKF34に出力することができ、第2のKF34は、比較的信頼度が高い推定値を観測値として用いることができる。 In this way, the first KF33 has an estimation error.
Figure 0006900029
Can be output to the second KF34 by limiting the estimated value to a relatively small estimated value, and the second KF34 can use an estimated value having a relatively high reliability as an observed value.

次に本実施形態の第2のKF34の状態空間モデルを以下に記す。式(17)は状態方程式であり、式(18)及び式(19)は観測方程式を示す。図5は、第2のKF34のブロック線図である。

Figure 0006900029
Next, the state space model of the second KF34 of this embodiment is described below. Equation (17) is an equation of state, and equations (18) and (19) indicate observation equations. FIG. 5 is a block diagram of the second KF34.
Figure 0006900029

2(k)は、時刻kにおける状態変数(状態ベクトル)、A2はシステム行列(状態遷移行列)、B2は駆動行列、u2(k)は制御入力、Nv(k)はシステム雑音(プロセスノイズ)である。y2a(k)及びy2b(k)は、時刻kにおいて入力される観測量、c2a及びc2bは観測行列、w(k)は観測雑音を示すものである。y2a(k)は、第1のKF33から推定速度及び推定加速度バイアス値のデータが出力(更新)されたときの観測値であり、y2b(k)は、環境取得部31から絶対高度が出力されたときの観測値である。同様に、c2aは、第1のKF33から推定速度及び推定加速度バイアス値のデータが出力されたときの観測行列であり、c2bは環境取得部31から絶対高度が出力されたときの観測行列である。これらの値は、具体的には以下のとおり定義される。

Figure 0006900029
x 2 (k) is the state variable (state vector) at time k, A 2 is the system matrix (state transition matrix), B 2 is the drive matrix, u 2 (k) is the control input, and Nv (k) is the system noise. (Process noise). y 2a (k) and y 2b (k) indicate the observable input at time k, c 2a and c 2b indicate the observation matrix, and w (k) indicates the observation noise. y 2a (k) is the observed value when the data of the estimated velocity and the estimated acceleration bias value are output (updated) from the first KF 33, and y 2b (k) is the absolute altitude from the environment acquisition unit 31. It is an observed value when it is output. Similarly, c 2a is an observation matrix when the data of the estimated velocity and the estimated acceleration bias value are output from the first KF 33, and c 2 b is the observation matrix when the absolute altitude is output from the environment acquisition unit 31. Is. Specifically, these values are defined as follows.
Figure 0006900029

式(20)〜式(25)から、式(17)は、以下の式(28)〜(32)を表していることが理解される。

Figure 0006900029
From equations (20) to (25), it is understood that equation (17) represents the following equations (28) to (32).
Figure 0006900029

ここで、Zpres(k)は無人航空機1の絶対高度、vbias(k)は速度バイアス値、Zbias(k)は高度バイアス値であり、各々時刻kにおける値を示す。 Here, Z pres (k) is the absolute altitude of the unmanned aerial vehicle 1, v bias (k) is the speed bias value, and Z bias (k) is the altitude bias value, which indicate the values at time k.

次に、第2のKF34における予測ステップ及びフィルタリングステップの処理について説明し、各値の尤度について説明する。 Next, the processing of the prediction step and the filtering step in the second KF34 will be described, and the likelihood of each value will be described.

予測ステップは、以下の式(33)、(34)で表される。

Figure 0006900029
The prediction step is represented by the following equations (33) and (34).
Figure 0006900029

フィルタリングステップは、(a)第1のKF33から推定速度及び推定加速度バイアス値が出力されたときと、(b)環境取得部31から絶対高度が出力されたときの2つの場合がある。 There are two filtering steps: (a) when the estimated speed and the estimated acceleration bias value are output from the first KF33, and (b) when the absolute altitude is output from the environment acquisition unit 31.

(a)第1のKF33から推定速度及び推定加速度バイアス値が出力されたときは、以下の式(35)〜(37)で表される。

Figure 0006900029
(A) When the estimated speed and the estimated acceleration bias value are output from the first KF33, they are represented by the following equations (35) to (37).
Figure 0006900029

(b)環境取得部31から絶対高度が出力されたときは、以下の式(38)〜(40)で表される。

Figure 0006900029
(B) When the absolute altitude is output from the environment acquisition unit 31, it is represented by the following equations (38) to (40).
Figure 0006900029

ここで、R2aとR2bは観測ノイズの分散行列であり、以下の式(41)、(42)で表される。

Figure 0006900029
Here, R 2a and R 2b are variance matrices of observed noise, and are represented by the following equations (41) and (42).
Figure 0006900029

velは、第1のKF33から得られた速度の分散値(尤度)であり、rabiasは第1のKF33から得られた加速度バイアス値の分散値(尤度)であり、rpresは環境取得部31から得られた絶対高度の分散値(尤度)である。 r vel is the variance value (likelihood) of the velocity obtained from the first KF33, r abias is the variance value (likelihood) of the acceleration bias value obtained from the first KF33, and r pres is. It is the variance value (likelihood) of the absolute altitude obtained from the environment acquisition unit 31.

上記より、第2のKF34が、プログラムの演算周期に従って予測ステップのみを実行し続けると、

Figure 0006900029
値が増加し続け、推定値の尤度が低下する。第2のKF34は、観測値が得られたタイミングで、
Figure 0006900029
小さい大きさとなる
Figure 0006900029
演算され、推定誤差
Figure 0006900029
減少し、推定値の尤度が増加する。ただし第1のKF33からの推定値の出力及び環境取得部31からの絶対高度の出力は非同期的に発生するため、第2のKF34は、それぞれが出力されるタイミングで、それぞれのフィルタリングステップを実行する。このようにして、第2のKF34は、無人航空機1の高度及び速度を推定し続ける。また前述のとおり、第1のKF33から出力される推定値の信頼度は比較的高いため、rvelとrabiasの大きさは、rpresと比較して小さく設定する。これにより、第1のKF33から推定値が出力される場合は、環境取得部31から得られる絶対高度より強力に更新処理を行うことが可能となる。 From the above, when the second KF34 continues to execute only the prediction step according to the calculation cycle of the program,
Figure 0006900029
The value continues to increase and the likelihood of the estimate decreases. The second KF34 is at the timing when the observed value is obtained.
Figure 0006900029
Become a small size
Figure 0006900029
Calculated and estimated error
Figure 0006900029
It decreases and the likelihood of the estimate increases. However, since the output of the estimated value from the first KF33 and the output of the absolute altitude from the environment acquisition unit 31 are generated asynchronously, the second KF34 executes each filtering step at the timing when each is output. To do. In this way, the second KF34 continues to estimate the altitude and speed of the unmanned aerial vehicle 1. Further, as described above, since the reliability of the estimated value output from the first KF33 is relatively high, the magnitudes of r vel and r abias are set smaller than those of r pres. As a result, when the estimated value is output from the first KF 33, the update process can be performed more powerfully than the absolute altitude obtained from the environment acquisition unit 31.

第1のKF33から推定値が出力されないとき、第2のKF34は、予測ステップと(b)のフィルタリングステップの処理のみを行うが、無人航空機1の高度及び速度を推定し続ける。第2のKF34は、第1のKF33から推定値が出力されなくなったとき、その直前の比較的尤度が高い速度及び加速度バイアス値を保持しているため、算出する推定高度及び推定速度の精度劣化を防ぐことができる。例えば式(30)は、第1のKF33から推定値が出力されなくなったとき、環境取得部31から得られる絶対高度が各バイアス値にフィードバックされて生じうるドリフトを抑え、時間の経過と共にバイアス値を劣化させることを表す。 When the estimated value is not output from the first KF33, the second KF34 only processes the prediction step and the filtering step of (b), but continues to estimate the altitude and speed of the unmanned aerial vehicle 1. When the estimated value is no longer output from the first KF33, the second KF34 holds the velocity and the acceleration bias value having a relatively high likelihood immediately before that, and therefore the accuracy of the estimated altitude and the estimated velocity to be calculated. Deterioration can be prevented. For example, in the equation (30), when the estimated value is no longer output from the first KF 33, the absolute altitude obtained from the environment acquisition unit 31 is fed back to each bias value to suppress the drift that may occur, and the bias value is suppressed with the passage of time. Indicates that

このような構成とすることにより、自己位置推定部32から相対高度が出力されなくなったとき、例えばSLAMが無効化されたとき、第2のKF34は推定高度及び推定速度を安定化させ、無人航空機1の急な上昇や不安定化を防止することができる。 With such a configuration, when the relative altitude is not output from the self-position estimation unit 32, for example, when SLAM is invalidated, the second KF34 stabilizes the estimated altitude and the estimated speed, and the unmanned aerial vehicle It is possible to prevent a sudden rise in 1 and instability.

図6は、無人航空機1が橋梁41の下方を飛行する様子を示す図である。橋梁41は、橋桁部42と、橋脚部43とを有し、橋脚部43は、梁部43aと、柱部43bとを有する。ここでは、撮像装置を備える無人航空機1が、橋梁41の下面を撮像するために該下面と一定の距離(例えば2m)を保持するように領域Aから領域Fまで飛行するときの飛行制御装置11の制御について説明する。このとき、飛行制御装置11は、上記のとおり第1のKF33と第2のKF34を用いて推定高度及び推定速度を算出し、該推定高度及び推定速度を用いて無人航空機1の飛行を制御する。 FIG. 6 is a diagram showing a state in which the unmanned aerial vehicle 1 flies below the bridge 41. The bridge 41 has a bridge girder portion 42 and a pier portion 43, and the pier portion 43 has a beam portion 43a and a column portion 43b. Here, the flight control device 11 when the unmanned aerial vehicle 1 provided with the image pickup device flies from the area A to the area F so as to maintain a certain distance (for example, 2 m) from the lower surface in order to image the lower surface of the bridge 41. The control of is described. At this time, the flight control device 11 calculates the estimated altitude and the estimated speed using the first KF33 and the second KF34 as described above, and controls the flight of the unmanned aerial vehicle 1 using the estimated altitude and the estimated speed. ..

無人航空機1が領域Aを飛行する場合について説明する。領域Aは、橋梁41と所定距離(例えば20m)を超えて離れている領域であるものとする。この場合、自己位置推定部32は、自己位置推定の尤度に基づいて推定された位置が有効でないと判定し、第1のKF33は観測値として相対高度を用いることができない。したがって、第2のKF34は、環境取得部31により取得される絶対高度に依存して無人航空機1の高度及び速度を推定することとなり、推定値の精度は比較的悪くなると考えられる。ただし領域Aにおいては、無人航空機1は橋梁41に衝突する可能性は低い。1つの例では、領域Aにおいては、飛行制御装置11は、無人航空機1の推定位置及び推定速度を用いて、予め設定された高度となるように無人航空機1の飛行を制御する。 A case where the unmanned aerial vehicle 1 flies in the area A will be described. The area A is assumed to be an area separated from the bridge 41 by a predetermined distance (for example, 20 m). In this case, the self-position estimation unit 32 determines that the position estimated based on the likelihood of self-position estimation is not valid, and the first KF 33 cannot use the relative altitude as the observed value. Therefore, the second KF34 estimates the altitude and speed of the unmanned aerial vehicle 1 depending on the absolute altitude acquired by the environment acquisition unit 31, and it is considered that the accuracy of the estimated value becomes relatively poor. However, in region A, the unmanned aerial vehicle 1 is unlikely to collide with the bridge 41. In one example, in region A, the flight control device 11 uses the estimated position and estimated speed of the unmanned aerial vehicle 1 to control the flight of the unmanned aerial vehicle 1 to a preset altitude.

無人航空機1が領域Aから領域Bへ飛行する場合について説明する。領域Bは橋桁部42の凹部の先端面の下方の領域であるものとする。この場合、自己位置推定部32は、レーザによる測距距離が所定距離以内の点群データを取得できたときに推定の演算を開始し、その点群データを取得し始めたタイミングにいた自己位置を基準座標と定める。領域Bにおいては、一定の距離を保持するように飛行する無人航空機1に対して、障害物は所定距離内に存在し続けることが考えられる。そのため自己位置推定部32は、自己位置推定の尤度に基づいて推定された位置が有効であると判定され続ける限り、無人航空機1の位置を第1のKF33に出力する。この場合、第1のKF33は推定速度及び推定加速度バイアス値を第2のKF34に出力し、第2のKF34は該推定速度及び推定加速度バイアス値と環境取得部31により出力された絶対高度とを観測値として用いて、無人航空機1の高度及び速度を推定する。領域Bにおいては、飛行制御装置11は、無人航空機1の推定位置及び推定速度を用いて、領域Bにある橋桁部42の凹部の先端面から一定の距離を保持するように無人航空機1の飛行を制御する。 The case where the unmanned aerial vehicle 1 flies from the area A to the area B will be described. Region B is assumed to be a region below the tip surface of the recess of the bridge girder portion 42. In this case, the self-position estimation unit 32 starts the estimation calculation when the point cloud data whose distance measurement distance by the laser is within a predetermined distance can be acquired, and the self-position at the timing when the point cloud data is started to be acquired. Is defined as the reference coordinate. In the area B, it is conceivable that the obstacle will continue to exist within a predetermined distance with respect to the unmanned aerial vehicle 1 flying so as to maintain a certain distance. Therefore, the self-position estimation unit 32 outputs the position of the unmanned aerial vehicle 1 to the first KF 33 as long as the position estimated based on the likelihood of self-position estimation continues to be determined to be valid. In this case, the first KF33 outputs the estimated speed and the estimated acceleration bias value to the second KF34, and the second KF34 outputs the estimated speed and the estimated acceleration bias value and the absolute altitude output by the environment acquisition unit 31. The altitude and speed of the unmanned aerial vehicle 1 are estimated using the observed values. In the region B, the flight control device 11 uses the estimated position and the estimated speed of the unmanned aerial vehicle 1 to fly the unmanned aerial vehicle 1 so as to maintain a constant distance from the tip surface of the recess of the bridge girder portion 42 in the region B. To control.

無人航空機1が領域Bから領域Dまで飛行する場合について説明する。領域Cは橋桁部42の凹部の窪んだ領域の下方の領域であるものとし、領域Dは橋桁部42の凹部の先端面の下方の領域であるものとする。無人航空機1が領域Bから領域Dへ飛行する場合も、無人航空機1が領域Bにおいて飛行する場合と同じである。ただし無人航空機1が領域Bから領域Cへ飛行する場合、飛行制御装置11は、無人航空機1を凹部の突出した長さの分だけ上昇させる。また無人航空機1が領域Cから領域Dへ飛行する場合、飛行制御装置11は、無人航空機1を凹部の突出した長さの分だけ下降させる。なお、領域Bから領域Dまで飛行する場合に、飛行制御装置11は、領域Bにおける高さを保持して飛行するように、すなわち領域Bから領域Dまで実質的に高度一定で飛行するように無人航空機1を制御することもできる。 A case where the unmanned aerial vehicle 1 flies from the area B to the area D will be described. It is assumed that the region C is a region below the recessed region of the bridge girder portion 42, and the region D is a region below the tip surface of the recess of the bridge girder portion 42. The case where the unmanned aerial vehicle 1 flies from the area B to the area D is the same as the case where the unmanned aerial vehicle 1 flies in the area B. However, when the unmanned aerial vehicle 1 flies from the area B to the area C, the flight control device 11 raises the unmanned aerial vehicle 1 by the protruding length of the recess. When the unmanned aerial vehicle 1 flies from the area C to the area D, the flight control device 11 lowers the unmanned aerial vehicle 1 by the protruding length of the recess. When flying from the area B to the area D, the flight control device 11 keeps the height in the area B and flies, that is, the flight from the area B to the area D at a substantially constant altitude. It is also possible to control the unmanned aerial vehicle 1.

無人航空機1が領域Dから領域Eへ飛行する場合について説明する。領域Eは、橋梁41と所定距離(例えば20m)を超えて離れている領域であるものとする。この場合、自己位置推定部32は、自己位置推定の尤度に基づいて推定された位置が有効でないと判定し、第1のKF33は観測値として相対高度を用いることができない。したがって、第2のKF34は、環境取得部31により取得される絶対高度に依存して無人航空機1の高度及び速度を推定することとなる。ただし前述のとおり、第2のKF34は、第1のKF33からの推定値が出力されなくなったとき、そのときの比較的尤度が高い速度及び加速度バイアス値を保持しているため、算出する推定高度及び推定速度の精度劣化を防ぐことができる。1つの例では、領域Eにおいては、飛行制御装置11は、無人航空機1の推定位置及び推定速度を用いて、領域Dにおける高度を保持するように無人航空機1の飛行を制御する。 The case where the unmanned aerial vehicle 1 flies from the area D to the area E will be described. The area E is assumed to be an area separated from the bridge 41 by a predetermined distance (for example, 20 m). In this case, the self-position estimation unit 32 determines that the position estimated based on the likelihood of self-position estimation is not valid, and the first KF 33 cannot use the relative altitude as the observed value. Therefore, the second KF34 estimates the altitude and speed of the unmanned aerial vehicle 1 depending on the absolute altitude acquired by the environment acquisition unit 31. However, as described above, when the estimated value from the first KF33 is no longer output, the second KF34 holds the velocity and acceleration bias values with relatively high likelihood at that time, so the estimation is calculated. It is possible to prevent the accuracy deterioration of altitude and estimated speed. In one example, in region E, the flight control device 11 uses the estimated position and speed of unmanned aerial vehicle 1 to control the flight of unmanned aerial vehicle 1 so as to maintain altitude in region D.

例えば、本発明と近い高度制御の方式としては、自己位置推定部32が利用可能な場所では自己位置推定32から得られる高度情報を用い、自己位置推定部32が利用不可能な場所は環境取得部31から得られる高度情報を用いるという方式が考えられる。しかし当該方式は、自己位置推定部32の情報、例えばレーザから取得される情報、を直接用いるため、自己位置推定部32が利用不可となった場合に急な上昇などの動作の不安定が生じやすいという問題がある。 For example, as an altitude control method similar to that of the present invention, the altitude information obtained from the self-position estimation unit 32 is used in the place where the self-position estimation unit 32 can be used, and the environment is acquired in the place where the self-position estimation unit 32 cannot be used. A method of using the altitude information obtained from the unit 31 can be considered. However, since this method directly uses the information of the self-position estimation unit 32, for example, the information acquired from the laser, when the self-position estimation unit 32 becomes unavailable, unstable operation such as a sudden rise occurs. There is a problem that it is easy.

本実施形態のような構成とすることにより、自己位置推定部32から相対高度が出力されなくなったとき、第2のKF34は推定高度及び推定速度を安定化させることが可能となる。飛行制御装置11はこのような推定高度及び推定速度を用いて無人航空機1の飛行を制御することができるため、無人航空機1の急な上昇や動作の不安定化を防止することが可能となる。 With the configuration as in this embodiment, when the relative altitude is no longer output from the self-position estimation unit 32, the second KF 34 can stabilize the estimated altitude and the estimated speed. Since the flight control device 11 can control the flight of the unmanned aerial vehicle 1 using such an estimated altitude and the estimated speed, it is possible to prevent the unmanned aerial vehicle 1 from suddenly ascending and destabilizing its operation. ..

無人航空機1が領域Eから領域Fへ飛行する場合について説明する。領域Fは、領域BからDの上方の橋梁41に隣接する橋梁41における橋桁部42の凹部の先端面の下方の領域であるものとする。無人航空機1が領域Eから領域Fへ飛行する場合も、無人航空機1が領域Aから領域Bへ飛行する場合と同じである。ただし、無人航空機1が領域Dから領域Fへ比較的短時間で飛行する場合、領域Eにおいて第2のKF34が算出する推定高度及び推定速度の精度劣化は比較的小さいと考えられるため、飛行制御装置11は無人航空機1をより滑らかに飛行させることができる。 The case where the unmanned aerial vehicle 1 flies from the area E to the area F will be described. It is assumed that the region F is a region below the tip surface of the recess of the bridge girder portion 42 in the bridge 41 adjacent to the bridge 41 above the regions B to D. The case where the unmanned aerial vehicle 1 flies from the area E to the area F is the same as the case where the unmanned aerial vehicle 1 flies from the area A to the area B. However, when the unmanned aerial vehicle 1 flies from the area D to the area F in a relatively short time, it is considered that the accuracy deterioration of the estimated altitude and the estimated speed calculated by the second KF34 in the area E is relatively small, so that the flight control The device 11 can fly the unmanned aerial vehicle 1 more smoothly.

次に、本発明の実施形態による飛行制御装置11の主な作用効果について説明する。本実施形態では、自己位置推定部32は、自己位置推定の尤度が基準値以上である場合に無人航空機1の相対高度を推定して第1のKF33に出力する。第1のKF33は、出力された相対高度を観測値として、無人航空機1の速度と加速度バイアス値を推定して第2のKF34に出力する。第2のKF34は、第1のKF33から推定値が出力されたときに該推定値を観測値として用いるとともに、環境取得部31から絶対高度が取得されたときに該絶対高度を観測値として用いて無人航空機1の高度と速度を推定する。 Next, the main functions and effects of the flight control device 11 according to the embodiment of the present invention will be described. In the present embodiment, the self-position estimation unit 32 estimates the relative altitude of the unmanned aerial vehicle 1 and outputs it to the first KF 33 when the likelihood of the self-position estimation is equal to or higher than the reference value. The first KF33 estimates the speed and acceleration bias value of the unmanned aerial vehicle 1 using the output relative altitude as an observed value, and outputs the output to the second KF34. The second KF34 uses the estimated value as an observed value when the estimated value is output from the first KF33, and uses the absolute altitude as an observed value when the absolute altitude is acquired from the environment acquisition unit 31. Estimate the altitude and speed of the unmanned aerial vehicle 1.

ここで、橋梁下部に河川がある場合などは、気圧センサが取得する高度の精度も十分ではないと考えられる。そのため本実施形態の飛行制御装置11は、自己位置推定部32により推定される相対高度の信頼度を環境取得部31により取得される絶対高度の信頼度よりも高く設定している。すなわち、第2のKF34においては、第1のKF33から得られた速度の分散値及び加速度バイアス値の分散値を環境取得部31から得られた絶対高度の分散値よりも小さく設定する(尤度は大きく設定する)。 Here, when there is a river under the bridge, it is considered that the altitude accuracy acquired by the barometric pressure sensor is not sufficient. Therefore, the flight control device 11 of the present embodiment sets the reliability of the relative altitude estimated by the self-position estimation unit 32 to be higher than the reliability of the absolute altitude acquired by the environment acquisition unit 31. That is, in the second KF34, the variance value of the velocity and the variance value of the acceleration bias value obtained from the first KF33 are set smaller than the variance value of the absolute altitude obtained from the environment acquisition unit 31 (likelihood). Is set large).

このような構成とすることにより、第2のKF34は、第1のKF33から推定値が出力される場合は、環境取得部31から得られる絶対高度より強力に更新処理を行うことが可能となる。また第2のKF34は、第1のKF33から推定値が出力されなくなったとき、その直前の比較的尤度が高い速度及び加速度バイアス値を保持しているため、算出する推定高度及び推定速度の精度劣化を防ぐことが可能となる。これにより、自己位置推定部32から相対高度が出力されなくなったとき、飛行制御装置11は無人航空機1の急な上昇や不安定化を防止することが可能となる。 With such a configuration, when the estimated value is output from the first KF33, the second KF34 can perform the update process more powerfully than the absolute altitude obtained from the environment acquisition unit 31. .. Further, when the estimated value is no longer output from the first KF33, the second KF34 holds the velocity and the acceleration bias value having a relatively high likelihood immediately before that, so that the estimated altitude and the estimated velocity to be calculated It is possible to prevent deterioration of accuracy. As a result, when the relative altitude is no longer output from the self-position estimation unit 32, the flight control device 11 can prevent the unmanned aerial vehicle 1 from suddenly ascending or destabilizing.

他の実施形態では、上記で説明した本発明の実施形態の機能ブロック図などに示す情報処理を実現する制御方法やプログラムとすることができるし、当該プログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。 In another embodiment, the control method or program that realizes the information processing shown in the functional block diagram of the embodiment of the present invention described above can be used, and the computer-readable storage medium that stores the program can be used. You can also do it.

以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。例えば上記実施例において、無人航空機1は自律飛行型の無人航空機である必要はなく、無人航空機1の機能構成も図1に示されるものに限らず同様の動作が可能であれば構わない。無人航空機1を浮揚させるための回転翼も、上昇、下降、前後左右への飛行の制御が可能であれば、図1で示されるような6つのロータ4に限らず任意の回転翼であってよい。無人航空機1の機体サイズも任意である。各実施例は、矛盾が生じない限りにおいて、適宜組み合わせて本発明の任意の実施形態に適用することができる。すなわち本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。 Each of the examples described above is an example for explaining the present invention, and the present invention is not limited to these examples. For example, in the above embodiment, the unmanned aerial vehicle 1 does not have to be an autonomous flight type unmanned aerial vehicle, and the functional configuration of the unmanned aerial vehicle 1 is not limited to that shown in FIG. The rotor blades for levitating the unmanned aerial vehicle 1 are not limited to the six rotors 4 as shown in FIG. Good. The size of the unmanned aerial vehicle 1 is also arbitrary. Each embodiment can be applied to any embodiment of the present invention in appropriate combinations as long as there is no contradiction. That is, the present invention can be carried out in various forms as long as it does not deviate from the gist thereof.

1 無人航空機
2 本体部
3 モータ
4 ロータ(回転翼)
5 アーム
6 着陸脚
7 ローカルセンサ
11 飛行制御装置
12 送受信機
13 センサ
14 スピードコントローラ(ESC)
21 プロセッサ
22 記憶装置
23 通信用IF
24 センサ用IF
25 信号変換回路
31 環境取得部
32 自己位置推定部
33 第1のカルマンフィルタ(第1のKF)
34 第2のカルマンフィルタ(第2のKF)
41 橋梁
42 橋桁部
43 橋脚部
43a 梁部
43b 柱部
1 Unmanned aerial vehicle 2 Main body 3 Motor 4 Rotor (rotor)
5 Arm 6 Landing gear 7 Local sensor 11 Flight control device 12 Transmitter / receiver 13 Sensor 14 Speed controller (ESC)
21 Processor 22 Storage device 23 Communication IF
24 IF for sensor
25 Signal conversion circuit 31 Environment acquisition unit 32 Self-position estimation unit 33 First Kalman filter (first KF)
34 Second Kalman filter (second KF)
41 Bridge 42 Bridge girder 43 Pier 43a Beam 43b Pillar

Claims (24)

無人航空機の絶対位置を計測するためのグローバルセンサを用いて前記無人航空機の位置を取得する環境取得部と、
前記無人航空機の相対位置を計測するためのローカルセンサを用いて前記無人航空機の周囲にある物体に対する前記無人航空機の相対位置を推定し、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に前記無人航空機の相対位置を出力する、自己位置推定部と、
前記自己位置推定部により前記無人航空機の相対位置が出力された場合は該相対位置に基づいて、かつ前記環境取得部により前記位置が取得された場合は該位置に基づいて、前記無人航空機の位置及び速度を推定する推定器と、を備え
前記推定器は、
前記自己位置推定部により前記無人航空機の相対位置が出力された場合、該相対位置に基づいて、前記無人航空機の速度及び該速度を補正するための加速度バイアス値を推定して出力する第1の推定器と、
前記速度及び前記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値に基づいて、かつ前記環境取得部により前記位置が取得された場合は該位置に基づいて、前記無人航空機の位置及び速度を推定して出力する第2の推定器と、を含み、
前記推定器により推定された前記無人航空機の位置及び速度は、前記第2の推定器により出力された位置及び速度である、
位置推定装置。
An environment acquisition unit that acquires the position of the unmanned aerial vehicle using a global sensor for measuring the absolute position of the unmanned aerial vehicle, and
The relative position of the unmanned aerial vehicle with respect to an object around the unmanned aerial vehicle is estimated using a local sensor for measuring the relative position of the unmanned aerial vehicle, and the estimated relative position is determined based on the estimated likelihood. A self-position estimation unit that outputs the relative position of the unmanned aerial vehicle when it is determined to be valid, and
The position of the unmanned aerial vehicle is based on the relative position when the relative position of the unmanned aerial vehicle is output by the self-position estimation unit, and based on the position when the position is acquired by the environment acquisition unit. And an estimator to estimate the speed ,
The estimator is
When the relative position of the unmanned aerial vehicle is output by the self-position estimation unit, the speed of the unmanned aerial vehicle and the acceleration bias value for correcting the speed are estimated and output based on the relative position. Estimator and
When the speed and the acceleration bias value are output, based on the output speed and the acceleration bias value, and when the position is acquired by the environment acquisition unit, based on the position, the unmanned aerial vehicle Includes a second estimator that estimates and outputs position and velocity,
The position and speed of the unmanned aerial vehicle estimated by the estimator are the positions and speeds output by the second estimator.
Position estimator.
前記自己位置推定部は、前記ローカルセンサによる測距距離が所定の距離内であった場合に、前記無人航空機の相対位置を出力する、請求項1に記載の位置推定装置。 The position estimation device according to claim 1, wherein the self-position estimation unit outputs the relative position of the unmanned aerial vehicle when the distance measured by the local sensor is within a predetermined distance. 前記自己位置推定部は、レーザを用いて取得された点群データに基づいて前記無人航空機の相対位置を推定し、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に前記無人航空機の相対位置を出力する、請求項1又は2に記載の位置推定装置。 The self-position estimation unit estimates the relative position of the unmanned aerial vehicle based on the point cloud data acquired by using the laser, and determines that the estimated relative position is valid based on the estimated likelihood. The position estimation device according to claim 1 or 2, which outputs the relative position of the unmanned aerial vehicle when the vehicle is used. 前記自己位置推定部は、SLAM技術を利用して前記無人航空機の相対位置を推定する、請求項1から3のいずれか1項に記載の位置推定装置。 The position estimation device according to any one of claims 1 to 3, wherein the self-position estimation unit estimates the relative position of the unmanned aerial vehicle by using SLAM technology. 前記自己位置推定部は、SLAM技術を利用してマップを作成し、作成されたマップと取得された点群データとの一致度に基づいて前記推定された相対位置が有効であるか否かを判定する、請求項4に記載の位置推定装置。 The self-position estimation unit creates a map using SLAM technology, and determines whether or not the estimated relative position is valid based on the degree of agreement between the created map and the acquired point cloud data. The position estimation device according to claim 4, wherein the position estimation device is used for determination. 前記環境取得部は気圧センサを用いて高度を取得する、請求項1から5のいずれか1項に記載の位置推定装置。 The position estimation device according to any one of claims 1 to 5, wherein the environment acquisition unit acquires altitude using a barometric pressure sensor. 前記位置は高度であり、前記速度は鉛直方向速度である、請求項1から6のいずれか1項に記載の位置推定装置。 The position estimation device according to any one of claims 1 to 6, wherein the position is altitude and the speed is a vertical speed. 第1の推定器は、前記自己位置推定部により前記無人航空機の相対位置が出力された場合に、該相対位置を観測値として用いて、前記無人航空機の速度及び加速度バイアス値を推定して出力するカルマンフィルタである、請求項1から7のいずれか1項に記載の位置推定装置。 When the relative position of the unmanned aerial vehicle is output by the self-position estimation unit, the first estimator estimates and outputs the speed and acceleration bias value of the unmanned aerial vehicle using the relative position as an observed value. The position estimation device according to any one of claims 1 to 7, which is a Kalman filter. 前記第1の推定器は、前記速度、前記位置、及び前記加速度バイアス値を成分として含む現在の状態ベクトル及び過去の状態ベクトルの関係を表す状態方程式と、前記観測値及び該状態ベクトルの関係を表す観測方程式とに基づいて、前記無人航空機の速度及び加速度バイアス値を推定する、請求項に記載の位置推定装置。 The first estimator obtains a state equation representing the relationship between the current state vector and the past state vector including the velocity, the position, and the acceleration bias value as components, and the relationship between the observed value and the state vector. The position estimation device according to claim 8 , which estimates the speed and acceleration bias value of the unmanned aircraft based on the observation equation represented. 前記第2の推定器は、前記速度及び前記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値を観測値として用い、かつ前記環境取得部により前記位置が取得された場合は該位置を観測値として用いて、前記無人航空機の位置及び速度を推定して出力するカルマンフィルタである、請求項からのいずれか1項に記載の位置推定装置。 When the speed and the acceleration bias value are output, the second estimator uses the output speed and the acceleration bias value as observation values, and when the position is acquired by the environment acquisition unit, the second estimator uses the output speed and the acceleration bias value as observation values. The position estimation device according to any one of claims 1 to 9 , which is a Kalman filter that estimates and outputs the position and speed of the unmanned aircraft using the position as an observed value. 前記第2の推定器は、前記速度、前記位置、及び前記加速度バイアス値を成分として含む現在の状態ベクトル及び過去の状態ベクトルの関係を表す状態方程式と、前記観測値及び該状態ベクトルの関係を表す観測方程式とに基づいて、前記無人航空機の位置及び速度を推定する、請求項10に記載の位置推定装置。 The second estimator obtains a state equation expressing the relationship between the current state vector and the past state vector including the velocity, the position, and the acceleration bias value as components, and the relationship between the observed value and the state vector. The position estimation device according to claim 10 , which estimates the position and speed of the unmanned aircraft based on the observation equation represented. 前記第2の推定器は、前記第1の推定器から出力される前記速度及び前記加速度バイアス値の尤度を、前記環境取得部により取得された前記位置の尤度よりも大きく設定して、前記無人航空機の位置及び速度を推定して出力する、請求項から11のいずれか1項に記載の位置推定装置。 The second estimator sets the likelihood of the velocity and the acceleration bias value output from the first estimator to be larger than the likelihood of the position acquired by the environment acquisition unit. The position estimation device according to any one of claims 1 to 11 , which estimates and outputs the position and speed of the unmanned aerial vehicle. 前記環境取得部は加速度センサを用いて加速度を更に取得し、
前記第1の推定器及び前記第2の推定器は、前記環境取得部から取得された加速度を制御入力として用いる、請求項から12のいずれか1項に記載の位置推定装置。
The environment acquisition unit further acquires acceleration using an acceleration sensor, and then obtains acceleration.
The position estimation device according to any one of claims 1 to 12 , wherein the first estimator and the second estimator use the acceleration acquired from the environment acquisition unit as a control input.
請求項1から13のいずれか1項に記載の位置推定装置を備える、無人航空機の飛行を制御する飛行制御装置であって、
前記推定器により推定された前記無人航空機の位置及び速度を用いて前記無人航空機の飛行を制御する、飛行制御装置。
A flight control device for controlling the flight of an unmanned aerial vehicle, comprising the position estimation device according to any one of claims 1 to 13.
A flight control device that controls the flight of the unmanned aerial vehicle using the position and speed of the unmanned aerial vehicle estimated by the estimator.
前記飛行制御装置は、
前記自己位置推定部により推定された相対位置を用いて前記物体との距離を決定し、前記推定器により推定された前記無人航空機の位置及び速度を用いて、該決定された距離を一定以上に保持して衝突を回避するように前記無人航空機の飛行を制御する、請求項14に記載の飛行制御装置。
The flight control device is
The distance to the object is determined using the relative position estimated by the self-position estimation unit, and the determined distance is set to a certain value or more by using the position and speed of the unmanned aerial vehicle estimated by the estimator. The flight control device according to claim 14 , which controls the flight of the unmanned aerial vehicle so as to hold and avoid a collision.
前記無人航空機が架設部を有する構造物の該架設部下方を飛行する場合、前記推定器により推定された前記無人航空機の位置及び速度を用いて、該架設部の下面との距離を一定に保持するように前記無人航空機の飛行を制御する、請求項15に記載の飛行制御装置。 When the unmanned aerial vehicle flies below the erection portion of a structure having an erection portion, the position and speed of the unmanned aerial vehicle estimated by the estimator are used to keep the distance from the lower surface of the erection portion constant. The flight control device according to claim 15 , which controls the flight of the unmanned aerial vehicle so as to perform the operation. 請求項14から16のいずれか1項に記載の飛行制御装置を備える無人航空機。 An unmanned aerial vehicle comprising the flight control device according to any one of claims 14 to 16. 無人航空機の位置を推定する方法であって、
前記無人航空機の絶対位置を計測するためのセンサを用いて前記無人航空機の位置を取得するステップと、
前記無人航空機の相対位置を計測するためのセンサを用いて前記無人航空機の相対位置を推定するステップであって、該推定の尤度に基づいて該推定された相対位置が有効であると判定された場合に前記無人航空機の相対位置を推定するステップと、
前記無人航空機の相対位置が推定された場合は該相対位置に基づいて、かつ前記位置が取得された場合は該位置に基づいて、前記無人航空機の位置及び速度を推定するステップと、
を含み、
前記無人航空機の位置及び速度を推定するステップは、
前記無人航空機の相対位置が出力された場合、該相対位置に基づいて、前記無人航空機の速度及び該速度を補正するための加速度バイアス値を推定して出力する第1の推定ステップと、
前記速度及び前記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値に基づいて、かつ前記環境取得部により前記位置が取得された場合は該位置に基づいて、前記無人航空機の位置及び速度を推定して出力する第2の推定ステップと、を含み、
前記推定するステップにより推定された前記無人航空機の位置及び速度は、前記第2の推定ステップにより出力された位置及び速度である、
方法。
A method of estimating the position of an unmanned aerial vehicle,
A step of acquiring the position of the unmanned aerial vehicle using a sensor for measuring the absolute position of the unmanned aerial vehicle, and
It is a step of estimating the relative position of the unmanned aerial vehicle using the sensor for measuring the relative position of the unmanned aerial vehicle, and it is determined that the estimated relative position is valid based on the likelihood of the estimation. In this case, the step of estimating the relative position of the unmanned aerial vehicle and
A step of estimating the position and speed of the unmanned aerial vehicle based on the relative position of the unmanned aerial vehicle when it is estimated, and based on the position when the position is acquired.
Only including,
The step of estimating the position and speed of the unmanned aerial vehicle is
When the relative position of the unmanned aerial vehicle is output, the first estimation step of estimating and outputting the speed of the unmanned aerial vehicle and the acceleration bias value for correcting the speed based on the relative position, and
When the speed and the acceleration bias value are output, based on the output speed and the acceleration bias value, and when the position is acquired by the environment acquisition unit, based on the position, the unmanned aerial vehicle Includes a second estimation step that estimates and outputs position and velocity,
The position and speed of the unmanned aerial vehicle estimated by the estimation step are the positions and speeds output by the second estimation step.
Method.
前記第1の推定ステップは、前記無人航空機の相対位置が出力された場合に、該相対位置を観測値として用いて、カルマンフィルタ処理を実行することにより、前記無人航空機の速度及び加速度バイアス値を推定して出力する、請求項18に記載の方法。 In the first estimation step, when the relative position of the unmanned aerial vehicle is output, the speed and acceleration bias value of the unmanned aerial vehicle are estimated by executing Kalman filtering using the relative position as an observed value. The method according to claim 18 , wherein the method is output. 前記第2の推定ステップは、前記速度及び前記加速度バイアス値が出力された場合は該出力された速度及び加速度バイアス値を観測値として用い、かつ前記環境取得部により前記位置が取得された場合は該位置を観測値として用いて、カルマンフィルタ処理を実行することにより、前記無人航空機の位置及び速度を推定して出力する、請求項18又は19に記載の方法。 In the second estimation step, when the velocity and the acceleration bias value are output, the output velocity and the acceleration bias value are used as observation values, and when the position is acquired by the environment acquisition unit, the position is acquired. The method according to claim 18 or 19 , wherein the position and speed of the unmanned aircraft are estimated and output by performing Kalman filtering using the position as an observed value. 前記第2の推定ステップは、前記第1の推定ステップから出力される前記速度及び前記加速度バイアス値の尤度を、前記環境取得部により取得された前記位置の尤度よりも大きく設定して、前記無人航空機の位置及び速度を推定して出力する、請求項18から20のいずれか1項に記載の方法In the second estimation step, the likelihood of the velocity and the acceleration bias value output from the first estimation step is set to be larger than the likelihood of the position acquired by the environment acquisition unit. The method according to any one of claims 18 to 20 , wherein the position and speed of the unmanned aerial vehicle are estimated and output. 無人航空機の位置を推定するプログラムであって、請求項18から21のいずれか1項に記載の方法の各ステップをコンピュータに実行させるプログラム。 A program for estimating the position of an unmanned aerial vehicle, which causes a computer to execute each step of the method according to any one of claims 18 to 21. 請求項18から21のいずれか1項に記載の無人航空機の位置を推定する方法を有する、無人航空機の飛行を制御する方法であって、
前記推定するステップにより推定された前記無人航空機の位置及び速度を用いて前記無人航空機の飛行を制御するステップを含む方法。
A method for controlling the flight of an unmanned aerial vehicle, which comprises the method of estimating the position of the unmanned aerial vehicle according to any one of claims 18 to 21.
A method comprising controlling the flight of the unmanned aerial vehicle using the position and speed of the unmanned aerial vehicle estimated by the estimated step.
無人航空機の飛行を制御するプログラムであって、請求項23に記載の方法の各ステップをコンピュータに実行させるプログラム。 A program that controls the flight of an unmanned aerial vehicle and causes a computer to perform each step of the method according to claim 23.
JP2017082314A 2017-04-18 2017-04-18 Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program Active JP6900029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017082314A JP6900029B2 (en) 2017-04-18 2017-04-18 Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017082314A JP6900029B2 (en) 2017-04-18 2017-04-18 Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program

Publications (2)

Publication Number Publication Date
JP2018181116A JP2018181116A (en) 2018-11-15
JP6900029B2 true JP6900029B2 (en) 2021-07-07

Family

ID=64275756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017082314A Active JP6900029B2 (en) 2017-04-18 2017-04-18 Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program

Country Status (1)

Country Link
JP (1) JP6900029B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109724884B (en) * 2019-01-15 2020-11-03 武汉武大卓越科技有限责任公司 Cross beam for measuring material surface deformation speed under dynamic load action
JP7450431B2 (en) 2020-03-27 2024-03-15 株式会社Nttデータ Autonomous flying vehicle and flight control method
JP7479265B2 (en) * 2020-09-25 2024-05-08 株式会社日立製作所 Mobile Control System

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015024705A (en) * 2013-07-25 2015-02-05 有限会社Gen Corporation Automatic landing/taking-off control method of small electric helicopter
JP6380936B2 (en) * 2015-03-30 2018-08-29 シャープ株式会社 Mobile body and system
JP2017011614A (en) * 2015-06-25 2017-01-12 三菱自動車工業株式会社 Driving support control device

Also Published As

Publication number Publication date
JP2018181116A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
US11592844B2 (en) Image space motion planning of an autonomous vehicle
EP3158293B1 (en) Sensor fusion using inertial and image sensors
EP3158417B1 (en) Sensor fusion using inertial and image sensors
EP3158412B1 (en) Sensor fusion using inertial and image sensors
EP3158411B1 (en) Sensor fusion using inertial and image sensors
EP3128386B1 (en) Method and device for tracking a moving target from an air vehicle
JP6235213B2 (en) Autonomous flying robot
EP3771956B1 (en) Systems and methods for generating flight paths for navigating an aircraft
Brockers et al. Fully self-contained vision-aided navigation and landing of a micro air vehicle independent from external sensor inputs
JP6900029B2 (en) Unmanned aerial vehicle, position estimation device, flight control device, position estimation method, control method and program
Bavle et al. A flight altitude estimator for multirotor UAVs in dynamic and unstructured indoor environments
CN111615677B (en) Unmanned aerial vehicle safety landing method and device, unmanned aerial vehicle and medium
KR20210075647A (en) Method and apparatus for learning of controlling aviation of unmanned aviation vehicle by using depth camera
JP6903141B2 (en) aircraft
JP7278740B2 (en) Mobile control device
Hou et al. Autonomous target localization using quadrotor
US20220334594A1 (en) Information processing system, information processing apparatus, and information processing program
Al-Sharman Auto takeoff and precision landing using integrated GPS/INS/Optical flow solution
JP2022095408A (en) Processing system, flight vehicle, processing method, and program
WO2021025568A2 (en) A lidar device, system and a control method of the same
JP2021092465A (en) System, method and program for correcting estimated location of unmanned aircraft, and storage medium having program stored
WO2019144287A1 (en) Systems and methods for automatic water surface and sky detection
US20240020876A1 (en) Machine-Learned Monocular Depth Estimation and Semantic Segmentation for 6-DOF Absolute Localization of a Delivery Drone
US20230316741A1 (en) Method for Semantic Localization of an Unmanned Aerial Vehicle
Wang et al. Real-time visual odometry for autonomous MAV navigation using RGB-D camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R150 Certificate of patent or registration of utility model

Ref document number: 6900029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250