JP6235213B2 - Autonomous flying robot - Google Patents

Autonomous flying robot Download PDF

Info

Publication number
JP6235213B2
JP6235213B2 JP2013017247A JP2013017247A JP6235213B2 JP 6235213 B2 JP6235213 B2 JP 6235213B2 JP 2013017247 A JP2013017247 A JP 2013017247A JP 2013017247 A JP2013017247 A JP 2013017247A JP 6235213 B2 JP6235213 B2 JP 6235213B2
Authority
JP
Japan
Prior art keywords
self
flight
horizontal
autonomous
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013017247A
Other languages
Japanese (ja)
Other versions
JP2014149622A (en
Inventor
遠藤 孝行
孝行 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013017247A priority Critical patent/JP6235213B2/en
Publication of JP2014149622A publication Critical patent/JP2014149622A/en
Application granted granted Critical
Publication of JP6235213B2 publication Critical patent/JP6235213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自己位置を推定できないときであっても自己位置を推定できるよう自律飛行する自律飛行ロボットに関する。   The present invention relates to an autonomous flight robot that autonomously flies so that the self position can be estimated even when the self position cannot be estimated.

従来、予め記憶した地図情報および自身に備わる各種センサからのセンサ情報に基づいて自律的に移動可能な自律移動ロボットが提案されている。例えば、特許文献1には、レーザレンジファインダなどの距離検出センサを用いて自律移動ロボットの周囲の障害物等からの距離を測定し、予め記憶した建物等の障害物を含む地図情報(障害物マップ)と距離検出センサの出力値(距離データ)とを用いて移動空間における自己位置を推定して、自律的に移動可能な自律移動ロボットが開示されている。   2. Description of the Related Art Conventionally, an autonomous mobile robot that can move autonomously based on map information stored in advance and sensor information from various sensors included in the device has been proposed. For example, in Patent Document 1, distance information from an obstacle around an autonomous mobile robot is measured using a distance detection sensor such as a laser range finder, and map information including obstacles such as buildings stored in advance (obstacles) An autonomous mobile robot that can autonomously move by estimating a self-position in a moving space using a map) and an output value (distance data) of a distance detection sensor is disclosed.

特開2012−137909号公報JP 2012-137909 A

上記の従来技術のように距離検出センサを用いて自己位置を推定する方法を用いた場合、例えば、トラックなどの大きめの障害物が出現することによって障害物の設置環境が大きく変化した場合、予め記憶した障害物マップと実際の障害物のレイアウトとが大きく乖離することになるため、適切に自己位置を推定できないことがある。しかしながら、上記の従来技術では、このような自己位置を推定できない場合について考慮されていないため、自己位置が推定できない場合に適切に自律移動することができない。ところで、近年、移動経路上に存在する物体や段差等の障害物に移動を制限されることなく空間内を自由に移動でき、侵入者等から攻撃され難い位置に移動できるといった面から、小型の飛行ロボットを自律的に移動させて侵入者を監視するといった自律飛行ロボットの利用が検討されている。このような自律飛行ロボットにおいては自律飛行が困難となった場合、侵入者に攻撃され易くなるだけでなく、建物や人物への衝突や墜落等による事故を発生させる恐れがあった。そこで、本発明は、自己位置を推定できなかった場合であっても、自己位置を推定できるよう自律飛行することにより、自律飛行ロボットが安定的に自律飛行できるようにすることを目的とする。   When using the method of estimating the self-position using the distance detection sensor as in the above prior art, for example, when the obstacle installation environment greatly changes due to the appearance of a large obstacle such as a truck, Since the stored obstacle map and the actual obstacle layout are greatly deviated, the self-location may not be estimated appropriately. However, the above-described conventional technology does not consider the case where such a self-position cannot be estimated, and therefore cannot appropriately move autonomously when the self-position cannot be estimated. By the way, in recent years, from the aspect of being able to move freely in space without being restricted by obstacles such as objects and steps on the moving path, it is possible to move to a position where it is difficult to be attacked by intruders, etc. The use of autonomous flying robots, such as autonomously moving a flying robot to monitor an intruder, has been studied. In such an autonomous flight robot, when autonomous flight becomes difficult, not only is it easy to be attacked by an intruder, but there is also a possibility of causing an accident due to a collision with a building or a person or a crash. Accordingly, an object of the present invention is to enable an autonomous flight robot to stably fly autonomously by performing autonomous flight so that the self position can be estimated even when the self position cannot be estimated.

かかる課題を解決するために、飛行空間の障害物マップを記憶した記憶部と、自律飛行ロボットの周囲に存在する障害物までの距離を測定する距離検出センサと、前記距離検出センサの出力及び前記障害物マップを用いて自律飛行ロボットの前記飛行空間における水平方向の自己位置である水平自己位置と高さ方向の自己位置である飛行高度とを推定する処理を行う位置推定手段と、前記位置推定手段にて前記水平自己位置を推定できるとき、前記自己位置から所定の移動目標位置に向かうよう移動制御する通常飛行制御処理と、前記位置推定手段にて前記水平自己位置を推定できないとき、前記飛行高度が高くなるよう移動制御する自己位置探索制御処理とを行う飛行制御手段と、を有し、前記各処理を逐次繰り返すことによって自律的に飛行することを特徴とする自律飛行ロボットを提供する。 In order to solve such a problem, a storage unit that stores an obstacle map of a flight space, a distance detection sensor that measures a distance to an obstacle existing around an autonomous flight robot, an output of the distance detection sensor, and the Position estimation means for performing processing for estimating a horizontal self-position that is a horizontal self-position in the flight space of the autonomous flight robot and a flight altitude that is a self-position in the height direction using an obstacle map; and the position estimation When the horizontal self-position can be estimated by means, a normal flight control process for controlling movement from the self-position toward a predetermined movement target position, and when the horizontal self-position cannot be estimated by the position estimation means, the flight It has a flight control unit for performing a self position search control process for moving control so that the altitude is high, the autonomously by repeating the respective processes successively Providing autonomous flying robots, characterized in that the rows.

かかる構成により、本発明の自律飛行ロボットは、位置推定手段にて水平自己位置を推定できなくなったとき、障害物の存在し易い低高度の位置から、比較的障害物の存在しない高高度の位置へと上昇することにより、水平自己位置を推定し易い位置へと自律飛行することができる。   With this configuration, the autonomous flying robot according to the present invention can detect a position at a high altitude where there is no obstacle from a low altitude position where an obstacle is likely to exist when the position estimation unit cannot estimate the horizontal self-position. By ascending, the autonomous flight can be made to a position where the horizontal self-position can be easily estimated.

また、本発明の好ましい態様として、前記自己位置探索制御処理は、更に、水平方向へ移動しないよう移動制御するものとする。   Moreover, as a preferable aspect of the present invention, the self-position search control process further controls movement so as not to move in the horizontal direction.

かかる構成により、水平自己位置が推定できなくなったとき、その位置から真上に向かって上昇することにより、周囲に存在する障害物や人物等への衝突の危険性を回避しつつ、水平自己位置を推定し易い位置へと自律飛行することができる。   With this configuration, when the horizontal self-position cannot be estimated, the horizontal self-position can be avoided while avoiding the danger of a collision with an obstacle or a person existing in the vicinity by ascending directly upward from the position. Can fly autonomously to a position where it is easy to estimate.

また、本発明の好ましい態様として、前記飛行制御手段は、更に、前記位置推定手段にて前記水平自己位置を推定できないときであって、かつ、前記飛行高度が所定の閾値以上であれば、前記自己位置探索制御処理を行わずに前記飛行高度を徐々に下げるよう移動制御する着陸制御処理を行うものとする。 Further, as a preferred aspect of the present invention, the flight control means is further capable of estimating the horizontal self-position by the position estimation means, and if the flight altitude is not less than a predetermined threshold value, It is assumed that landing control processing for performing movement control so as to gradually lower the flight altitude without performing self-location search control processing is performed.

かかる構成により、自己位置探索制御処理によって所定の閾値以上の位置に上昇しても、まだ水平自己位置を推定できない場合については、着陸制御処理によってその水平方向における位置で着陸するように移動制御することにより、水平自己位置が推定できないままの状態を不必要に継続しないようにして、より安全性を高めることが可能となる。   With such a configuration, if the horizontal self-position cannot be estimated even if the position rises to a position equal to or higher than the predetermined threshold by the self-position search control process, the movement control is performed so as to land at the position in the horizontal direction by the landing control process. As a result, it is possible to further improve safety by preventing the state where the horizontal self-position cannot be estimated from being continued unnecessarily.

また、本発明の好ましい態様として、前記位置推定手段は、更に、前記飛行制御手段にて前記自己位置探索制御処理が行われた後に前記水平自己位置を推定できたとき、水平自己位置を推定できなかった高度における前記距離検出センサの出力値を用いて前記障害物マップを更新するマップ更新処理を行うものとする。   Further, as a preferred aspect of the present invention, the position estimation means can further estimate a horizontal self position when the flight control means can estimate the horizontal self position after the self position search control processing is performed. It is assumed that map update processing for updating the obstacle map is performed using the output value of the distance detection sensor at the altitude that was not present.

かかる構成により、水平自己位置を推定できなかった飛行空間における位置の周辺に、再び自律飛行した場合であっても、更新された障害物マップを用いて水平自己位置を推定することができると共に、更新された障害物マップにより新たな障害物の存在を認識することができるため当該障害物への衝突の危険性を低減することができる。   With such a configuration, the horizontal self-position can be estimated using the updated obstacle map even when autonomous flight is performed again around the position in the flight space where the horizontal self-position could not be estimated, Since the presence of a new obstacle can be recognized from the updated obstacle map, the risk of collision with the obstacle can be reduced.

上記のように、本発明の自律飛行ロボットは、自己位置(水平自己位置)を推定できなかった場合であっても、自己位置(水平自己位置)を推定できるよう飛行することにより、安定的に移動目標位置へ自律飛行できる。   As described above, the autonomous flying robot according to the present invention stably performs the flight so that the self position (horizontal self position) can be estimated even when the self position (horizontal self position) cannot be estimated. It can fly autonomously to the target position.

自律飛行ロボットの概観図Overview of autonomous flying robot 自律飛行ロボットの機能ブロック図Functional block diagram of autonomous flying robot 飛行制御処理の概要を説明する概略図Schematic explaining the outline of flight control processing 2Dポイント情報と距離検出センサの出力値とを重畳表示した説明図Explanatory drawing which superimposedly displayed 2D point information and the output value of a distance detection sensor 飛行制御処理のフローチャートFlight control processing flowchart 移動経路の生成におけるグラフ構造の説明図Explanatory diagram of the graph structure in the generation of travel paths ローカル目標算出の説明図Illustration of local target calculation

以下、監視対象の飛行空間において所定の移動目標位置に向かって自律的に飛行ながら、飛行中における飛行空間の監視画像を取得する自律飛行ロボットについての実施形態について添付した図面を参照しながら詳細に説明する。 Hereinafter, while autonomously flying toward a predetermined movement target position in the flight space being monitored with reference to the embodiment accompanying drawings for about autonomous flying robots to retrieve the monitor image of the flight space in the flight details Explained.

図1に本実施形態で利用する自律飛行ロボット1の概観図を表す。また、図2に本実施形態で利用する自律飛行ロボット1の機能ブロック図を表す。図1に表すように、本実施形態で利用する自律飛行ロボット1は、符号2a〜2dに示す4枚のロータ2(プロペラ)が一平面上に存在し、各ロータ2が図示しないバッテリ(二次電池)により駆動するモータ6によって回転することによって飛行するクアッドロータ型の小型無人ヘリコプタである。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、本実施形態で利用する自律飛行ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、例えば、機体をヨー方向に回転させたいときは、符号fa〜fdの矢印で示すように前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与える。このように、各ロータ2の回転数を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。   FIG. 1 shows an overview of an autonomous flying robot 1 used in the present embodiment. FIG. 2 shows a functional block diagram of the autonomous flying robot 1 used in the present embodiment. As shown in FIG. 1, in the autonomous flying robot 1 used in the present embodiment, four rotors 2 (propellers) indicated by reference numerals 2a to 2d are present on one plane, and each rotor 2 is not shown in a battery (two This is a quad-rotor type small unmanned helicopter that flies by rotating by a motor 6 driven by a secondary battery. Generally, in a single rotor type helicopter, the azimuth angle is maintained by canceling the counter torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quadrotor type helicopter such as the autonomous flying robot 1 used in the present embodiment, counter torque is canceled by using a rotor 2 that rotates in different directions in front and rear and left and right. For example, when it is desired to rotate the machine body in the yaw direction, a difference is given to the rotational speeds of the front and rear rotors 2a, 2c and the left and right rotors 2d, 2b as indicated by arrows fa to fd. Thus, by controlling the rotation speed of each rotor 2, various movements and adjustments of the posture can be performed.

撮像部3は、例えばレンズなどの光学系および所定画素(例えば640×480画素)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、飛行空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施形態では、撮像部3は、その光軸が自律飛行ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して図示しない外部装置に送信されたりする。
通信部9は外部装置との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施形態では、撮像部3によって取得した撮像画像を図示しない警備センタに設置されたPCに送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。
The imaging unit 3 includes a two-dimensional image sensor having an optical system such as a lens and a two-dimensional array element such as a CCD or CMOS with predetermined pixels (for example, 640 × 480 pixels), and captures captured images of the flight space for a predetermined time. This is a so-called color camera that is acquired at intervals. In the present embodiment, the imaging unit 3 is installed in the housing part so that the optical axis thereof captures the front direction of the autonomous flying robot 1 and is a space obliquely below by a predetermined depression angle θ from the horizontal plane (XY plane). It is installed to take pictures. The acquired captured image is output to the control unit 7 described later, and is stored in the storage unit 8 by the control unit 7, or transmitted to an external device (not shown) via the communication unit 9 described later.
The communication unit 9 is a communication module for performing wireless communication with an external device by, for example, a wireless LAN or a mobile phone line. In the present embodiment, by transmitting the captured image acquired by the imaging unit 3 to a PC installed in a security center (not shown), it is possible for a security guard or the like to remotely monitor an intruder.

距離検出センサ4は、自律飛行ロボット1の周囲に存在する障害物と距離検出センサ4との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施形態では、距離検出センサ4としてレーザスキャナを備えている。レーザスキャナは、一定の角度サンプル間隔の角度毎に二次元スキャンすることによって、地面(又は床面)から一定の高さの水平面における周囲に存在する物体(障害物)との距離情報を極座標値として取得することができるものである。ここで、レーザスキャナにおける二次元スキャンとは、予め設定された検知エリアを走査するように、放射状にレーザ光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求めることをいう。本実施形態では、角度サンプル間隔を0.25°、検出角度範囲を360°、センサ検出範囲を30mとして自律飛行ロボットの周囲の障害物との距離を測定可能なレーザセンサを用いている。なお、距離検出センサ4は、レーザスキャナから照射されるレーザの一部をミラー5で地面方向に反射させて計測された距離情報を利用して飛行高度を推測することにも利用している。   The distance detection sensor 4 is a sensor that detects a distance between an obstacle existing around the autonomous flying robot 1 and the distance detection sensor 4 and acquires a relative position of the obstacle existing in the sensor detection range. is there. In the present embodiment, a laser scanner is provided as the distance detection sensor 4. The laser scanner performs two-dimensional scanning for each angle of a certain angular sample interval, thereby polar information indicating the distance information from the ground (or floor surface) to an object (obstacle) existing in the horizontal plane at a certain height. Can be obtained as: Here, the two-dimensional scan in the laser scanner means that a search signal that is a laser beam is transmitted radially so as to scan a preset detection area, and is returned after being reflected by an object in the detection area. The distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained. In this embodiment, a laser sensor capable of measuring a distance from an obstacle around the autonomous flying robot is used with an angle sample interval of 0.25 °, a detection angle range of 360 °, and a sensor detection range of 30 m. The distance detection sensor 4 is also used to estimate the flight altitude using distance information measured by reflecting a part of the laser emitted from the laser scanner toward the ground with a mirror 5.

記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部との間でこれらの情報を入出力する。各種データには、本発明の「障害物マップ」に対応する2Dポイント情報81及びボクセル情報82、移動目標位置83の他、制御部7の各処理に用いられる設定値、閾値等の各種パラメータ84や、各センサ等からの出力値、撮像画像等が含まれる。   The storage unit 8 is an information storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The storage unit 8 stores various programs and various data, and inputs / outputs such information to / from the control unit. In the various data, in addition to the 2D point information 81 and voxel information 82 corresponding to the “obstacle map” of the present invention, the movement target position 83, various parameters 84 such as setting values and threshold values used for each process of the control unit 7 are included. In addition, output values from each sensor, captured images, and the like are included.

2Dポイント情報81は、後述する位置推定手段71にて自律飛行ロボットの現在の飛行位置(以下、「自己位置」という)を推定するために利用する情報であり、グローバル座標と呼ばれる水平面における二次元の絶対座標上に表され、飛行空間における建造物等の障害物の外形を表す点集合の座標情報である。本実施形態では、飛行高度毎に設定された複数の点集合を2Dポイント情報として予め記憶部8に記憶していることとし、自律飛行ロボットの飛行高度によって対応する飛行高度の点集合を記憶部8から読み出して利用するものとする。   The 2D point information 81 is information used to estimate the current flight position (hereinafter referred to as “self position”) of the autonomous flying robot by the position estimation unit 71 described later, and is two-dimensional in a horizontal plane called global coordinates. This is coordinate information of a point set that is expressed on the absolute coordinates and represents the outer shape of an obstacle such as a building in the flight space. In the present embodiment, a plurality of point sets set for each flight altitude are stored in advance in the storage unit 8 as 2D point information, and the point set of the flight altitude corresponding to the flight altitude of the autonomous flying robot is stored in the storage unit. It is assumed that the data is read from 8 and used.

ボクセル情報82は、飛行空間をボクセル空間として複数のボクセルに分割して飛行空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶される情報である。本実施形態では、飛行空間を所定の大きさ(例えば15cm×15cm)に分割し、建造物等の障害物に位置するボクセルを「占有ボクセル」と定義して、自律飛行ロボット1が移動できない空間とした。そして、占有ボクセルの近くに存在する空間に位置するボクセルを「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルを「自由ボクセル」として定義した。そして、各ボクセルには、後述する移動経路生成手段にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値を持たせた。占有ボクセルのボクセルコスト値は最大値をとり、距離が大きくなるほどボクセルコスト値が小さくなるように、(ボクセルコスト値)=exp{−λ・(占有ボクセルからの距離)}の計算式からボクセルコスト値を算出した。ここでλは実験によって求めたパラメータである。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とした。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と再設定した。なお、自律飛行ロボット1が飛行空間における予め定めた移動可能空間の外に出ないようにするため、移動可能空間とその外部との境界となるボクセルを占有ボクセルと設定した。   The voxel information 82 is information that divides the flight space into a plurality of voxels as a voxel space and represents the structure of obstacles in the flight space, and is information that is set in advance by an administrator or the like and stored in the storage unit 8. . In the present embodiment, the flying space is divided into a predetermined size (for example, 15 cm × 15 cm), and voxels located on obstacles such as buildings are defined as “occupied voxels”, and the space where the autonomous flying robot 1 cannot move is defined. It was. A voxel located in the space existing near the occupied voxel is defined as a “proximity voxel”, and a voxel located in an area where other flight is possible is defined as a “free voxel”. Each voxel is given a voxel cost value indicating an occupancy so that it can be used when a movement route is generated by the movement route generation means described later. The voxel cost value of the occupied voxel takes the maximum value, and the voxel cost is calculated from the formula of (voxel cost value) = exp {−λ · (distance from the occupied voxel)} so that the voxel cost value decreases as the distance increases. The value was calculated. Here, λ is a parameter obtained by experiment. A voxel having a voxel cost value equal to or greater than a predetermined threshold is set as a “proximity voxel”. Further, a voxel having a voxel cost value smaller than the threshold value is set as “free voxel”, and the voxel cost value of the voxel regarded as a free voxel is reset to 0. In order to prevent the autonomous flying robot 1 from going outside the predetermined movable space in the flight space, the voxel that is the boundary between the movable space and the outside is set as the occupied voxel.

移動目標位置83は、自律飛行ロボット1が移動する目標となる飛行空間における位置情報であり、所定の位置(点)を示す座標情報として、予め管理者等によって設定され記憶部8に記憶される情報である。なお、本実施形態では、移動目標位置83として一つの座標情報を記憶していることを想定しているが、これに限らず、複数の座標情報を記憶して時刻や所定条件(例えば、図示しないセンサの感知状況)に応じて制御部7にて利用する移動目標位置83を切り替えるように利用してもよい。   The movement target position 83 is position information in the flight space that is the target to which the autonomous flying robot 1 moves, and is set in advance by an administrator or the like as coordinate information indicating a predetermined position (point) and stored in the storage unit 8. Information. In the present embodiment, it is assumed that one piece of coordinate information is stored as the movement target position 83. However, the present invention is not limited to this, and a plurality of pieces of coordinate information are stored so that time and predetermined conditions (for example, illustrated) The movement target position 83 used in the control unit 7 may be switched in accordance with the detection status of the sensor not to be used.

制御部7は、CPU等を備えたコンピュータで構成され、自己位置推定処理、速度推定処理、飛行制御処理を行う一連の処理として、位置推定手段71、速度推定手段72、飛行制御手段73を含んでいる。   The control unit 7 includes a computer having a CPU and the like, and includes a position estimation unit 71, a speed estimation unit 72, and a flight control unit 73 as a series of processes for performing self-position estimation processing, speed estimation processing, and flight control processing. It is out.

位置推定手段71は、距離検出センサ4及び撮像部3の出力に基づいて、飛行空間における自律飛行ロボット1の現在の飛行位置(自己位置)を推定する自己位置推定処理を行う。自己位置推定処理では、距離検出センサ4の出力と記憶部8に記憶された2Dポイント情報81とを用いて、自己位置として、飛行空間における水平方向(XY平面方向)の自己位置x,y(以下、「水平自己位置」という)と、高さ方向(Z軸方向)の自己位置である飛行高度zと、Z軸に対する回転角であるヨー角ψとを推定する処理を行う。   The position estimation means 71 performs self-position estimation processing for estimating the current flight position (self-position) of the autonomous flying robot 1 in the flight space based on the outputs of the distance detection sensor 4 and the imaging unit 3. In the self-position estimation process, using the output of the distance detection sensor 4 and the 2D point information 81 stored in the storage unit 8, self-positions x, y (horizontal direction (XY plane direction) in the flight space as self-positions. Hereinafter, a process of estimating a “horizontal self-position”), a flight altitude z that is a self-position in the height direction (Z-axis direction), and a yaw angle ψ that is a rotation angle with respect to the Z-axis is performed.

自己位置推定処理では、まず、レーザスキャナから照射されるレーザ光の一部をミラー5で地面方向に反射させて計測された距離情報を利用して、自己位置の飛行高度zを算出する。レーザスキャナによって計測された距離情報は、地面には建造物以外の物体(例えば荷物や乗り物など)が存在するため、必ずしも地面までの距離として正確に計測されるとは限らない。したがって、本実施形態では、これらの建造物以外の障害物の影響を受け難いようレーザスキャナによって計測された距離情報に対して拡張カルマンフィルタを適用することにより飛行高度を推定する。   In the self-position estimation process, first, the flight altitude z of the self-position is calculated using distance information measured by reflecting part of the laser light emitted from the laser scanner toward the ground with the mirror 5. The distance information measured by the laser scanner is not always accurately measured as the distance to the ground because an object other than a building (such as a luggage or a vehicle) exists on the ground. Therefore, in this embodiment, the flight altitude is estimated by applying the extended Kalman filter to the distance information measured by the laser scanner so that it is not easily affected by obstacles other than these buildings.

次に、自己位置推定処理では、自己位置のx,y,ヨー角ψを推定する。自己位置のx,y,ヨー角ψを推定するにあたり、まず、記憶部に記憶された2Dポイント情報81から飛行高度zに対応した飛行空間の二次元地図としての点集合を読み出す。そして、求めた点集合とレーザスキャナの出力とを用いて、ICP(Iterative Closest Point)アルゴリズムを利用した既知のスキャンマッチングにより自己位置のx,y,ヨー角ψを推定する。ICPアルゴリズムは、2つの点集合A,Bにおいてユークリッド距離が最小となる組合せを求めることによりマッチング処理するものである。すなわち、2Dポイント情報81の点集合と、自律飛行ロボット1に搭載されているレーザスキャナから取得した出力値(スキャンデータ)である入力点集合とをマッチングさせ位置誤差を修正することによって、グローバル座標における自己位置のx,y,ヨー角ψを推定することができる。 Next, in the self-position estimation process, the x, y and yaw angles ψ of the self-position are estimated. Per the estimated self-position x, y, the yaw angle [psi, first reads the set point as a two-dimensional map of the flight space corresponding to the altitude z from the 2D point information 81 stored in the storage unit. Then, using the obtained point set and the output of the laser scanner, the x, y, and yaw angles ψ of the self-position are estimated by known scan matching using an ICP (Iterative Closest Point) algorithm. The ICP algorithm performs a matching process by obtaining a combination that minimizes the Euclidean distance between the two point sets A and B. That is, by matching the point set of the 2D point information 81 with the input point set which is an output value (scan data) acquired from the laser scanner mounted on the autonomous flying robot 1 to correct the position error, global coordinates are obtained. It is possible to estimate the x, y, and yaw angles ψ of the self position at.

速度推定手段72は、後述する飛行制御手段7における経路追従制御で利用するため、自律飛行ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する処理を行う。本実施形態では、位置推定手段71にて推定した自己位置(x,y,z,yaw)の時間変化から飛行速度を求めた。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定した。 Speed estimating unit 72, for use in a path tracking control in the flight control means 7 3 described later, performs current flight speed of the autonomous flying robots 1 (v x, v y, v z, v yaw) estimates the handle . In the present embodiment, the flight speed is obtained from the time change of the self position (x, y, z, yaw) estimated by the position estimation means 71. At this time, the flight speed was estimated using an extended Kalman filter in consideration of the influence of measurement errors and the like.

飛行制御手段73は、位置推定手段71にて推定した自己位置(水平自己位置、飛行高度)と速度推定手段72で推定した飛行速度とを用いて、各時刻での飛行制御値である速度指令値を求め、当該速度指令値に基づいてモータ6を制御し、ロータ2の回転数を制御することにより、自律飛行ロボット1が記憶部8に記憶した移動目標位置83へ向かって飛行させる飛行制御処理を行う。図3は、本発明の要点を示した概略図であり、同図を用いて飛行制御処理の概要について概略説明する。図3において、符号1a、1b、1cはそれぞれ時刻t、t+1、t+2における自律飛行ロボット1の位置に対応しており、符号A1、A2は飛行空間に存在する障害物である建造物に対応している。同図では、時刻t及び時刻t+2においては自律飛行ロボット1が水平自己位置を推定できており、この場合、飛行制御処理によって、建造物A1、A2に衝突しないよう符号Gで表す移動目標位置83に向かって移動制御されることを表している。その一方で、時刻t+1においては、本来、飛行空間内に存在しなかったはずのバスC存在していることに起因して、自律飛行ロボット1bが水平自己位置を推定できず、この場合、飛行制御処理によって飛行高度を上昇するよう移動制御されることを表している。 The flight control means 73 uses the self-position (horizontal self-position, flight altitude) estimated by the position estimation means 71 and the flight speed estimated by the speed estimation means 72, and a speed command that is a flight control value at each time. Flight control in which the autonomous flying robot 1 flies toward the movement target position 83 stored in the storage unit 8 by obtaining the value, controlling the motor 6 based on the speed command value, and controlling the rotation speed of the rotor 2. Process. FIG. 3 is a schematic view showing the main points of the present invention, and the outline of the flight control process will be outlined with reference to FIG. In FIG. 3, reference numerals 1a, 1b, and 1c correspond to the positions of the autonomous flying robot 1 at times t, t + 1, and t + 2, respectively, and reference signs A1 and A2 correspond to buildings that are obstacles existing in the flight space. ing. In the figure, at time t and time t + 2, the autonomous flying robot 1 can estimate the horizontal self-position, and in this case, the movement target position 83 represented by the symbol G so as not to collide with the buildings A1 and A2 by the flight control processing. It represents that the movement is controlled toward. On the other hand, at time t + 1, the autonomous flying robot 1b cannot estimate the horizontal self-position due to the presence of the bus C that should not have existed in the flight space. In this case, It represents that movement control is performed to increase the flight altitude by the flight control process.

図4(a)(b)は、それぞれ時刻t+1、t+2の位置における2Dポイント情報81と距離検出センサ4の出力値によって算出された障害物までの距離情報とを重畳表示した図である。図4において、2Dポイント情報81の点集合の座標値を符号Pで示す“○印”で表し、距離検出センサ4のレーザ光を符号Rで示す点線で表し、距離検出センサ4の出力値によって算出された障害物までの距離情報(座標値)を符号P’で示す“×印”で表している。図4(a)に表すように、時刻t+1では、レーザ光Rが一点鎖線で示す障害物のバスCによって遮られることから、自律飛行ロボット1bの飛行高度における2Dポイント情報Pと距離検出センサ4の出力値から算出された障害物までの距離情報P’とが適切にマッチングできないことから水平自己位置を推定することができない。しかし、飛行制御処理により、自律飛行ロボット1が、図3の符号1bの位置から符号1cの位置へと飛行高度を上昇するよう移動制御されることによって、バスCの高さよりも高い位置に移動することができ、当該バスCによってレーザ光Rが遮られることがなくなる。したがって、図4(b)に表すように、時刻t+2では、自律飛行ロボット1cの飛行高度における2Dポイント情報Pと距離検出センサ4の出力値から算出された障害物までの距離情報P’とが適切にマッチングでき、水平自己位置を推定することができるようになる。図5は、飛行制御処理を示すフローチャートであり、以下、同図を用いて飛行制御処理の詳細について説明する。 FIGS. 4A and 4B are diagrams in which the 2D point information 81 at the positions of times t + 1 and t + 2 and the distance information to the obstacle calculated from the output value of the distance detection sensor 4 are superimposed and displayed. In FIG. 4, the coordinate value of the point set of the 2D point information 81 is represented by “◯” indicated by the symbol P, the laser light of the distance detection sensor 4 is represented by the dotted line indicated by the symbol R, and the output value of the distance detection sensor 4 The calculated distance information (coordinate value) to the obstacle is represented by “x” indicated by a symbol P ′. As shown in FIG. 4A, at time t + 1, since the laser beam R is blocked by the obstacle bus C indicated by the alternate long and short dash line, the 2D point information P and the distance detection sensor 4 at the flight altitude of the autonomous flying robot 1b. Since the distance information P ′ to the obstacle calculated from the output value cannot be appropriately matched, the horizontal self-position cannot be estimated. However, the flight control process causes the autonomous flight robot 1 to move to a position higher than the height of the bus C by being controlled so as to increase the flight altitude from the position 1b in FIG. 3 to the position 1c. The laser beam R is not blocked by the bus C. Therefore, as shown in FIG. 4B, at time t + 2, the 2D point information P at the flight altitude of the autonomous flying robot 1c and the distance information P ′ to the obstacle calculated from the output value of the distance detection sensor 4 are obtained. appropriately be matched, so that it is estimated Teisu Rukoto a horizontal self-position. FIG. 5 is a flowchart showing the flight control process, and the details of the flight control process will be described below with reference to FIG.

飛行制御処理では、まず、記憶部8に各種パラメータ84として記憶された着陸フラグがONとなっているか否かを判定する(ST10)。着陸フラグは、後述する着陸制御処理が実施されたときにST18にてONとされるパラメータであり、デフォルト値はOFFとなっている。ST10にて着陸フラグがONとなっていない(OFF)と判定されたとき(ST10−No)、位置推定手段71における自己位置推定処理にて水平自己位置が推定できているか否かを判定する(ST11)。前述したように本実施形態における自己位置推定処理では、距離検出センサ4(レーザスキャナ)の出力である入力点集合と2Dポイント情報81の点集合とのマッチングによって水平自己位置を推定しているが、このマッチングの際に、2つの点集合間のユークリッド距離に応じたスコアを求め(点集合間の距離が大きくなるほど低スコアとなるように求める)、当該スコアが予め定めた閾値よりも小さいとき水平自己位置が推定できないとみなす。例えば、図4(a)に表すように、自律飛行ロボット1bの飛行高度における2Dポイント情報Pの点集合と、距離検出センサ4の出力値から算出された障害物までの距離情報P’の入力点集合の間でユークリッド距離が大きい場合、低スコアとなって水平自己位置が推定できないとみなされる。なお、本実施形態では、スコアによって水平自己位置が推定できているか否かを判定しているが、これに限らない。例えば、2Dポイント情報81の点集合と大きく位置が異なる入力点集合の点を「外れ値」としてマッチング処理から除外しているが、この外れ値の数が予め定めた閾値以上であるとき水平自己位置が推定できないとみなす方法を用いてもよい。   In the flight control process, first, it is determined whether or not the landing flag stored as various parameters 84 in the storage unit 8 is ON (ST10). The landing flag is a parameter that is turned ON in ST18 when a landing control process described later is performed, and the default value is OFF. When it is determined in ST10 that the landing flag is not ON (OFF) (ST10-No), it is determined whether or not the horizontal self-position can be estimated by the self-position estimation process in the position estimating means 71 ( ST11). As described above, in the self-position estimation process according to the present embodiment, the horizontal self-position is estimated by matching the input point set that is the output of the distance detection sensor 4 (laser scanner) and the point set of the 2D point information 81. When this matching is performed, a score corresponding to the Euclidean distance between the two point sets is obtained (the score becomes lower as the distance between the point sets becomes larger), and the score is smaller than a predetermined threshold. Consider that the horizontal self-position cannot be estimated. For example, as shown in FIG. 4 (a), the point set of 2D point information P at the flight altitude of the autonomous flying robot 1b and the input of distance information P ′ to the obstacle calculated from the output value of the distance detection sensor 4 are input. When the Euclidean distance is large between the point sets, it is considered that the horizontal self-position cannot be estimated because the score is low. In the present embodiment, it is determined whether or not the horizontal self-position can be estimated based on the score, but the present invention is not limited to this. For example, the points of the input point set whose position is significantly different from the point set of the 2D point information 81 are excluded from the matching process as “outliers”, but when the number of outliers is equal to or greater than a predetermined threshold, the horizontal self A method in which the position cannot be estimated may be used.

ST11にて水平自己位置が推定できていると判定されたとき(ST11−Yes)、飛行制御手段73は通常時(水平自己位置が推定できている時)における飛行制御処理として、通常飛行制御処理を行う(ST12〜ST14)。通常飛行制御処理では、まず、記憶部8に記憶されたボクセル情報82及び移動目標位置83と、位置推定手段71にて算出した自己位置とを用いて自律飛行ロボットの移動経路を算出する移動経路生成処理を行う(ST12)。具体的には、移動経路生成処理では、まず、記憶部からボクセル情報82を読出し、分割した移動可能な空間である自由ボクセル及び近接ボクセルの各ボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしてグラフ構造を生成する。図6はグラフ構造を説明する図であり、飛行空間における移動可能なボクセル(自由ボクセル又は近接ボクセル)の一部(27個)を切り欠いたものである。図6において符号Bで表す個々の立方体は自由ボクセル又は近接ボクセルを表すものである。また、これらのボクセルBの中心にある黒又はハッチングにて塗りつぶした球はノードであり、ノード間を連結する点線で表示する線分はエッジである。このようにボクセル情報82に基づいて全ての移動可能なボクセルについてグラフ構造を生成した後、自律飛行ロボット1が存在しているボクセルのノードから移動目標位置83が存在しているボクセルのノードまでの移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路を探索する。この際、ボクセル情報82として記憶されたボクセルコストをA*経路探索法における移動コストとして利用する。飛行制御手段7で生成された生成された移動経路のデータは、経由点(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。 ST11 when horizontal self-location is determined to come estimated at (ST11-Yes), a flight control process in the flight control means 73 during normal (when the horizontal self-location is able to estimate), normal flight control Processing is performed (ST12 to ST14). In the normal flight control process, first, the movement path for calculating the movement path of the autonomous flying robot using the voxel information 82 and the movement target position 83 stored in the storage unit 8 and the self-position calculated by the position estimation means 71. Generation processing is performed (ST12). Specifically, in the movement route generation process, first, the voxel information 82 is read from the storage unit, and the center of each voxel of the free voxel and the adjacent voxel that is the divided movable space is set as a node, and the node adjacent to the node A graph structure is generated with the line segments connecting the edges as edges. FIG. 6 is a diagram for explaining the graph structure, in which a part (27) of movable voxels (free voxels or adjacent voxels) in the flight space is cut out. In FIG. 6, each cube represented by the symbol B represents a free voxel or a neighboring voxel. Further, a sphere filled with black or hatching at the center of these voxels B is a node, and a line segment displayed with a dotted line connecting the nodes is an edge. After generating the graph structure for all movable voxels based on the voxel information 82 in this way, from the voxel node where the autonomous flying robot 1 exists to the voxel node where the movement target position 83 exists. Generate a travel route. Although various route generation methods can be applied to the generation method of the movement route, in the present embodiment, the movement route is searched using the A * (Aster) route search method. At this time, the voxel cost stored as the voxel information 82 is used as a movement cost in the A * route search method. Data of the movement path generated generated by the flight control means 7 3 is a set data of the transit point (x, y, z), the information is temporarily stored in the storage unit 8.

次に、通常飛行制御処理として、現在時刻での自律飛行ロボットが目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う(ST13)。図7はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、飛行制御手段73は、ST13にて生成された移動経路を記憶部8から読出し、自律飛行ロボット1が現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、飛行制御手段73は、求めた直線Wと自律飛行ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律飛行ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置83に向かって移動していき、自律飛行ロボット1は移動経路に沿って飛行していくことになる。   Next, as a normal flight control process, a process of calculating the nearest position (hereinafter referred to as a “local target”) to be targeted by the autonomous flying robot at the current time is performed (ST13). FIG. 7 is a diagram for explaining the calculation of the local target. In calculating the local target, the flight control means 73 reads the movement route generated in ST13 from the storage unit 8, and the via point Wp1 that the autonomous flying robot 1 is aiming at at the current time and the via point Wp0 that has passed the previous time. A straight line W connecting the two points is obtained. Then, the flight control means 73 calculates the intersections Lp ′ and Lp between the obtained straight line W and the sphere S centered on the self-position of the autonomous flying robot 1, and sets the intersection Lp close to the target via point Wp 1 as the local target. Asking. In this way, by performing flight control so that the autonomous flying robot 1 moves toward the local target at each time, the local target always moves on the moving path toward the moving target position 83, and the autonomous flying robot 1 Will fly along the path of travel.

次に、通常飛行制御処理として、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角ψの各方向毎に速度指令値ux,uy,uz,uψを算出する処理を行う(ST14)。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような速度指令値を求める。具体的には、XYZ軸方向の速度指令値u=(ux,uy,uz)は、位置推定手段で求めた自己位置r=(x,y,z)と速度推定手段で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各速度指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、速度指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の速度指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律飛行ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vψの式のようなPD制御により求める。なお、本実施形態では、目標角度ψ'を移動目標位置83(G)の方向を向く角度とした。 Next, as normal flight control processing, speed command values u x , u y , u z , u ψ are calculated for each direction of X, Y, Z, and yaw angle ψ so as to fly toward the calculated local target. Processing is performed (ST14). At this time, a speed command value is determined so that the difference between the current self position and the position of the local target is small. Specifically, the speed command value u = (u x , u y , u z ) in the XYZ direction is estimated by the self position r = (x, y, z) obtained by the position estimation unit and the speed estimation unit. Using velocity v = (v x , v y , v z ), it is obtained by PID control. When each speed command value in the XYZ-axis directions is u = (u x , u y , u z ) and the local target is r ′ = (x, y, z), the speed command value is u = K p (r '-R) + K d · v + K i · e is calculated. Here, K p , K d , and K i are gains of PID control, respectively, and e = (e x , e y , e z ) is an integrated value of errors. On the other hand, the speed command value u ψ in the yaw angle direction includes the target angle of ψ ′, the attitude (angle) of the autonomous flying robot 1 estimated by the position estimating means 71, and the angular velocity estimated by the speed estimating means 72 of v yaw. When obtained by the PD control as equation u ψ = K p (ψ'- ψ) + K d · v ψ. In the present embodiment, the target angle ψ ′ is an angle that faces the direction of the movement target position 83 (G).

続いて、ST11にて水平自己位置が推定できていないと判定されたとき(ST11−No)、現在の飛行高度が予め記憶部8に記憶された閾値(本実施形態では8mとする)以下であるか否かを判定する(ST15)。ST15にて現在の飛行高度が8m以下であると判定されたとき(ST15−Yes)、飛行制御手段73は水平自己位置を推定するための飛行制御処理として、自己位置探索制御処理を行う(ST16)。自己位置探索制御処理では、飛行制御手段73は、自律飛行ロボット1の飛行高度を徐々に上げるような速度指令値u=(ux,uy,uz)を求め、当該速度指令値uによりロータ2の回転数が制御される。本実施形態では、自律飛行ロボット1が水平方向へ移動しないように、X、Y軸方向の速度指令値ux、uyはそれぞれ0とし、Z軸方向の速度指令値uzを実験によって求めた所定値としている。 Subsequently, when the horizontal self-location is determined not come in estimator at ST11 (ST11-No), (a 8m in the present embodiment) the current altitude is stored in advance in the storage unit 8 below the threshold It is determined whether or not (ST15). When it is determined in ST15 that the current flight altitude is 8 m or less (ST15-Yes), the flight control means 73 performs a self-position search control process as a flight control process for estimating the horizontal self-position (ST16). ). In the self-position search control process, the flight control means 73 obtains a speed command value u = (u x , u y , u z ) that gradually increases the flight altitude of the autonomous flying robot 1, and uses the speed command value u. The rotation speed of the rotor 2 is controlled. In this embodiment, the speed command values u x and u y in the X and Y axis directions are set to 0 so that the autonomous flying robot 1 does not move in the horizontal direction, and the speed command value uz in the Z axis direction is obtained by experiments. It is a predetermined value.

続いて、ST15にて現在の飛行高度が8m以下ではない判定されたとき(ST15−No)、飛行制御手段73は着陸制御処理を行う(ST17)。着陸制御処理では、飛行制御手段73は、自律飛行ロボット1の飛行高度を徐々に下げるような速度指令値u=(ux,uy,uz)を求め、当該速度指令値uによりロータ2の回転数が制御される。なお、本実施形態では、自律飛行ロボット1が水平方向へ移動しないように、X、Y軸方向の速度指令値ux、uyはそれぞれ0とし、Z軸方向の速度指令値uzを実験によって求めた所定値としている。ST17の着陸制御処理が行われると、飛行制御手段73は、記憶部8の着陸フラグをONに変更する処理を行う(ST18)。このように、着陸フラグをONに変更することにより、ST10の判定にて、次回からの飛行制御処理において速度指令値が変更されること無く、飛行高度を下げ続けることができる。なお、本実施形態では、飛行制御処理は自律飛行ロボット1が地上に着陸するまで処理されることとし、また、自律飛行ロボット1が着陸した場合(飛行高度が0と推定された場合)、ロータ2の回転を停止するよう制御されることとする。 Subsequently, when it is determined in ST15 that the current flight altitude is not less than 8 m (ST15-No), the flight control means 73 performs landing control processing (ST17). In the landing control process, the flight control means 73 obtains a speed command value u = (u x , u y , u z ) that gradually lowers the flight altitude of the autonomous flying robot 1, and the rotor 2 is determined based on the speed command value u. The number of rotations is controlled. In this embodiment, in order to prevent the autonomous flying robot 1 from moving in the horizontal direction, the velocity command values u x and u y in the X and Y axis directions are set to 0, and the velocity command value u z in the Z axis direction is tested. The predetermined value obtained by When the landing control process of ST17 is performed, the flight control means 73 performs a process of changing the landing flag of the storage unit 8 to ON (ST18). In this way, by changing the landing flag to ON, the flight altitude can be continuously lowered without changing the speed command value in the next flight control process in the determination of ST10. In the present embodiment, the flight control process is performed until the autonomous flight robot 1 has landed on the ground, and when the autonomous flight robot 1 has landed (when the flight altitude is estimated to be 0), the rotor It is assumed that the rotation of 2 is controlled to stop.

このように、制御部7は、上述した位置推定手段71、速度推定手段72、飛行制御手段73における各処理を所定時間おきに逐次繰り返す。これにより、本実施形態の自律飛行ロボット1は、水平自己位置が推定できるときは、通常飛行制御によって移動制御することにより、移動目標位置83に向かって自律的に移動することができる。また、水平自己位置が推定できないときは、自己位置探索制御によって飛行高度を上げるよう移動制御することにより、障害物が存在し易い低高度の位置から、比較的障害物が存在し難い高高度の位置へと移動することができる。この際、水平方向へは移動せずに、水平自己位置から真上に上昇することにより、周囲に存在する障害物や人物等への衝突の危険性を回避することができる。このように、自律飛行ロボット1は、水平自己位置を推定できなくなった場合であっても、安全性を保ちつつ水平自己位置を推定し易い位置へと移動することが可能となる。   In this way, the control unit 7 sequentially repeats the processes in the position estimation unit 71, the speed estimation unit 72, and the flight control unit 73 described above every predetermined time. Thereby, when the horizontal self-position can be estimated, the autonomous flying robot 1 of the present embodiment can move autonomously toward the movement target position 83 by performing movement control by normal flight control. In addition, when the horizontal self-position cannot be estimated, by moving control so as to increase the flight altitude by self-position search control, from a low altitude position where obstacles are likely to exist, You can move to a position. At this time, without moving in the horizontal direction, it is possible to avoid the danger of a collision with an obstacle, a person, or the like existing in the vicinity by ascending directly above the horizontal self-position. As described above, the autonomous flying robot 1 can move to a position where the horizontal self-position can be easily estimated while maintaining safety even when the horizontal self-position cannot be estimated.

また、自己位置探索制御処理によって、所定の閾値(例えば8m)以上の位置に上昇しても、まだ水平自己位置を推定できない場合については、着陸制御処理によってその水平方向における位置で着陸するように移動制御することにより、水平自己位置が推定できないままの状態を不必要に継続しないようにして、より安全性を高めることが可能となる。   Also, if the horizontal self-position cannot be estimated even if the self-position search control process rises to a position equal to or higher than a predetermined threshold (for example, 8 m), the landing control process should land at the position in the horizontal direction. By controlling the movement, the state where the horizontal self-position cannot be estimated is not continued unnecessarily, and the safety can be further improved.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、自己位置探索制御処理によって自己位置が推定できたとき、通常飛行制御処理に移行することによって、再び移動目標位置83に向かって自律移動している。しかし、これだけに限らず、自己位置探索制御処理によって自己位置が推定できたとき、位置推定手段71は、水平自己位置を推定できなかった飛行高度における距離検出センサの出力値を用いて2Dポイント情報とボクセル情報82とを更新するマップ更新処理を行ってもよい。すなわち、水平自己位置を推定できなかったときの飛行高度と距離検出センサの出力値(入力点集合の座標値)とを対応付けて一時的に記憶部8に記憶しておき、自己位置探索制御処理によって真上に上昇して水平自己位置が推定できたとき、一時的に記憶した距離検出センサの出力値を真として、当該出力値を用いて記憶部8に記憶した2Dポイント情報81における対応する飛行高度(水平自己位置を推定できなかった飛行高度)の値を変更する。同じように、記憶部8に記憶されたボクセル情報82についても、水平自己位置を推定できなかった飛行高度のボクセルであって、占有ボクセルの位置とは水平位置が大きく異なる位置にある入力点集合を特定し、当該入力点集合と干渉するボクセルを占有ボクセルとして更新する。そして、当該占有ボクセルの近くに存在するボクセルを近接ボクセルとして更新する。これにより、再びこの周辺の位置に自律飛行した場合であっても、水平自己位置を推定することができると共に、更新した位置に存在する障害物への衝突の危険性を低減することができる。   In the above embodiment, when the self-position can be estimated by the self-position search control process, the autonomous movement toward the movement target position 83 is made again by shifting to the normal flight control process. However, the present invention is not limited to this, and when the self-position can be estimated by the self-position search control process, the position estimation means 71 uses the output value of the distance detection sensor at the flight altitude at which the horizontal self-position could not be estimated, to obtain 2D point information. And map update processing for updating the voxel information 82 may be performed. That is, the flight altitude when the horizontal self-position could not be estimated and the output value of the distance detection sensor (coordinate values of the input point set) are associated with each other and temporarily stored in the storage unit 8, and self-position search control is performed. When the horizontal self-position can be estimated by rising straight up by processing, the output value of the distance detection sensor temporarily stored is assumed to be true, and the correspondence in the 2D point information 81 stored in the storage unit 8 using the output value Change the value of the flight altitude (the flight altitude for which the horizontal self-position could not be estimated). Similarly, the voxel information 82 stored in the storage unit 8 is a set of input points that are voxels at a flight altitude where the horizontal self-position could not be estimated and whose horizontal position is significantly different from the position of the occupied voxel. And voxels that interfere with the set of input points are updated as occupied voxels. Then, the voxel existing near the occupied voxel is updated as a neighboring voxel. Thereby, even if it is a case where it flew autonomously to the position of this periphery again, while being able to estimate a horizontal self position, the danger of the collision to the obstacle which exists in the updated position can be reduced.

上記実施形態では、距離検出センサ4としてレーザスキャナを用いているが、これに限らず、例えば、赤外線距離センサ、ミリ波レーダ(マイクロ波レーダ)、超音波距離センサなどを用いてもよい。   In the above-described embodiment, a laser scanner is used as the distance detection sensor 4. However, the present invention is not limited to this, and for example, an infrared distance sensor, a millimeter wave radar (microwave radar), an ultrasonic distance sensor, or the like may be used.

上記実施形態では、飛行制御手段7にて速度指令値を算出するために、速度推定手段72にて自己速度を算出している。しかし、これに限らず、速度推定手段72を省略して自己速度を算出せずに速度指令値を算出してもよい。また、上記実施形態では、速度推定手段72にて自己位置に基づいて自己速度を算出している。しかし、これに限らず、IMU(Inertial Measurement Unit:慣性計測ユニット)などのセンサを利用したり、自律飛行ロボット1の真下方向を撮像するカメラを設置し、カメラからの撮像画像に基づいて既知のオプティカルフロー法を用いて自己速度を算出してもよい。
In the above embodiment, in order to calculate the speed command value by the flight control means 7 3, calculates the self speed at speed estimating unit 72. However, the present invention is not limited to this, and the speed command value may be calculated without the speed estimation means 72 and without calculating the self speed . Also, in the above embodiment, it calculates the self speed based on the self position at a rate estimation means 72. However, the present invention is not limited to this. A sensor that uses a sensor such as an IMU (Internal Measurement Unit) or a camera that captures an image directly below the autonomous flying robot 1 is installed, and is known based on an image captured from the camera. The self velocity may be calculated using an optical flow method.

上記実施形態では、制御部7において位置推定処理(自己位置推定処理、移動物体位置推定処理)、速度推定処理、経路探索処理、経路追従制御処理の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律飛行ロボット1は、距離検出センサ4のレーザスキャナの出力及び撮像部3で取得した撮像画像を通信部9を介して無線通信により当該PCに送信する。そして、PCは、位置推定処理、速度推定処理、飛行制御処理を実施し、飛行制御処理にて求めた速度指令値を無線通信により自律飛行ロボット1に送信する。そして、自律飛行ロボット1は、通信部9を介して受信した速度指令値に基づいてモータ6の回転数を制御することにより、目的の位置に飛行する。このように、上記の一連の処理を外部PCを用いて分担することにより、自律飛行ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。   In the above embodiment, the control unit 7 performs a series of processing of position estimation processing (self-position estimation processing, moving object position estimation processing), speed estimation processing, route search processing, and route tracking control processing. However, the present invention is not limited to this, and a control PC (not shown) may be prepared and the PC may perform a series of these processes. That is, the autonomous flying robot 1 transmits the output of the laser scanner of the distance detection sensor 4 and the captured image acquired by the imaging unit 3 to the PC by wireless communication via the communication unit 9. Then, the PC performs position estimation processing, speed estimation processing, and flight control processing, and transmits the speed command value obtained in the flight control processing to the autonomous flying robot 1 by wireless communication. Then, the autonomous flying robot 1 flies to a target position by controlling the number of revolutions of the motor 6 based on the speed command value received via the communication unit 9. As described above, by sharing the above-described series of processes using the external PC, it is possible to reduce the CPU processing load of the autonomous flying robot 1 and to suppress the battery consumption.

1・・・自律飛行ロボット
2・・・ロータ
3・・・撮像部
4・・・距離検出センサ
5・・・ミラー
6・・・モータ
7・・・制御部
8・・・記憶部
9・・・通信部
81・・・2Dポイント情報
82・・・ボクセル情報
83、G・・・移動目標位置
84・・・各種パラメータ
71・・・位置推定手段
72・・・速度推定手段
73・・・飛行制御手段
A1、A2・・・建造物
C・・・バス
B・・・ボクセル
R・・・レーザ光
P・・・2Dポイント情報の座標値
P’・・・距離検出センサ出力値の座標値
Lp・・・ローカル目標

DESCRIPTION OF SYMBOLS 1 ... Autonomous flight robot 2 ... Rotor 3 ... Imaging part 4 ... Distance detection sensor 5 ... Mirror 6 ... Motor 7 ... Control part 8 ... Memory | storage part 9 ... -Communication part 81 ... 2D point information 82 ... Voxel information 83, G ... Movement target position 84 ... Various parameters 71 ... Position estimation means 72 ... Speed estimation means 73 ... Flight Control means A1, A2 ... Building C ... Bus B ... Voxel R ... Laser beam P ... Coordinate value of 2D point information P '... Coordinate value of distance detection sensor output value Lp ... Local targets

Claims (4)

飛行空間の障害物マップを記憶した記憶部と、
自律飛行ロボットの周囲に存在する障害物までの距離を測定する距離検出センサと、
前記距離検出センサの出力及び前記障害物マップを用いて自律飛行ロボットの前記飛行空間における水平方向の自己位置である水平自己位置と高さ方向の自己位置である飛行高度とを推定する処理を行う位置推定手段と、
前記位置推定手段にて前記水平自己位置を推定できるとき、前記自己位置から所定の移動目標位置に向かうよう移動制御する通常飛行制御処理と、前記位置推定手段にて前記水平自己位置を推定できないとき、前記飛行高度が高くなるよう移動制御する自己位置探索制御処理とを行う飛行制御手段と、を有し、前記各処理を逐次繰り返すことによって自律的に飛行することを特徴とする自律飛行ロボット。
A storage unit storing an obstacle map of the flight space;
A distance detection sensor that measures the distance to obstacles around the autonomous flying robot;
Using the output of the distance detection sensor and the obstacle map, a process of estimating a horizontal self-position that is a horizontal self-position and a flight altitude that is a self-position in the height direction in the flight space of the autonomous flight robot is performed. Position estimation means;
When the position estimator can estimate the horizontal self-position, when the position estimator cannot estimate the horizontal self-position, and the normal flight control process for controlling the movement from the position to the predetermined movement target position And a flight control means for performing a self-position search control process for controlling the movement so that the flight altitude becomes high, and autonomously flying by repeating each process sequentially.
前記自己位置探索制御処理は、更に、水平方向へ移動しないよう移動制御する請求項1に記載の自律飛行ロボット。   The autonomous flight robot according to claim 1, wherein the self-position search control process further controls movement so as not to move in a horizontal direction. 前記飛行制御手段は、更に、前記位置推定手段にて前記水平自己位置を推定できないときであって、かつ、前記飛行高度が所定の閾値以上であれば、前記自己位置探索制御処理を行わずに前記飛行高度を徐々に下げるよう移動制御する着陸制御処理を行う請求項2に記載の自律飛行ロボット。 The flight control means further performs the self-position search control process when the position estimation means cannot estimate the horizontal self-position and the flight altitude is equal to or greater than a predetermined threshold. The autonomous flying robot according to claim 2, wherein landing control processing is performed to perform movement control so as to gradually decrease the flight altitude. 前記位置推定手段は、更に、前記飛行制御手段にて前記自己位置探索制御処理が行われた後に前記水平自己位置を推定できたとき、水平自己位置を推定できなかった高度における前記距離検出センサの出力値を用いて前記障害物マップを更新するマップ更新処理を行う請求項2又は請求項3に記載の自律飛行ロボット

The position estimation means further includes the distance detecting sensor at an altitude at which the horizontal self-position could not be estimated when the horizontal self-position could be estimated after the flight control means performed the self-position search control processing. The autonomous flying robot according to claim 2, wherein map update processing is performed to update the obstacle map using an output value.

JP2013017247A 2013-01-31 2013-01-31 Autonomous flying robot Active JP6235213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013017247A JP6235213B2 (en) 2013-01-31 2013-01-31 Autonomous flying robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013017247A JP6235213B2 (en) 2013-01-31 2013-01-31 Autonomous flying robot

Publications (2)

Publication Number Publication Date
JP2014149622A JP2014149622A (en) 2014-08-21
JP6235213B2 true JP6235213B2 (en) 2017-11-22

Family

ID=51572569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017247A Active JP6235213B2 (en) 2013-01-31 2013-01-31 Autonomous flying robot

Country Status (1)

Country Link
JP (1) JP6235213B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6469487B2 (en) * 2015-03-17 2019-02-13 セコム株式会社 Flying robot control system and flying robot
US10683086B2 (en) 2015-03-19 2020-06-16 Prodrone Co., Ltd. Unmanned rotorcraft and method for measuring circumjacent object around rotorcraft
US10367447B2 (en) * 2015-12-16 2019-07-30 Skycom Corporation Lighter-than-air aircraft and method to reduce leakage within a flexible bladder
JP6635390B2 (en) * 2016-03-10 2020-01-22 パナソニックIpマネジメント株式会社 Flying object
JP6799444B2 (en) * 2016-04-01 2020-12-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Autonomous mobile system
US10150563B2 (en) 2016-04-01 2018-12-11 Panasonic Intellectual Property Corporation Autonomous moving machine system
CN107272727B (en) 2016-04-01 2022-02-01 松下电器(美国)知识产权公司 Autonomous moving body
JP6767861B2 (en) * 2016-05-11 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Flight control method and unmanned aerial vehicle
JP6746137B2 (en) * 2016-11-02 2020-08-26 株式会社プロドローン Unmanned aerial vehicle
JP6897076B2 (en) * 2016-12-01 2021-06-30 富士通株式会社 Flight control methods, flight control programs, and flight control devices
JP6808226B2 (en) * 2017-02-08 2021-01-06 ルーチェサーチ株式会社 Unmanned aerial vehicle
CN107272735A (en) * 2017-06-16 2017-10-20 深圳市可飞科技有限公司 Mobile platform evades the method, system and mobile platform of collision automatically
JP2019114038A (en) * 2017-12-22 2019-07-11 日本コンピューターテクノス株式会社 Aircraft, server device, environment information acquisition method, environment information storage method, and program
JP6707596B2 (en) * 2018-09-13 2020-06-10 三菱ロジスネクスト株式会社 Laser type automated guided vehicle and automated guided vehicle system
WO2021065212A1 (en) * 2019-10-03 2021-04-08 ソニー株式会社 Information processing device, information processing method, and program
US20240085928A1 (en) * 2019-10-09 2024-03-14 Nippon Telegraph And Telephone Corporation Unmanned aerial vehicle and control method therefor
CN112012614A (en) * 2020-09-03 2020-12-01 清华大学合肥公共安全研究院 Sliding window capable of being used for taking off and landing of logistics unmanned aerial vehicle, control method, system and terminal
WO2022176493A1 (en) * 2021-02-22 2022-08-25 ソニーグループ株式会社 Moving body, information processing method, and program
CN113997737A (en) * 2021-10-26 2022-02-01 南京壮大智能科技研究院有限公司 Method for taking off and landing flying car parking lot

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5747191B2 (en) * 2010-12-27 2015-07-08 株式会社国際電気通信基礎技術研究所 Mobile remote control system and control program therefor

Also Published As

Publication number Publication date
JP2014149622A (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6235213B2 (en) Autonomous flying robot
JP6029446B2 (en) Autonomous flying robot
JP6195450B2 (en) Autonomous flying robot
US11592845B2 (en) Image space motion planning of an autonomous vehicle
JP6664162B2 (en) Autonomous flying robot
JP6140458B2 (en) Autonomous mobile robot
JP6014485B2 (en) Autonomous flying robot
JP6599143B2 (en) Autonomous mobile robot
US10435176B2 (en) Perimeter structure for unmanned aerial vehicle
JP6527726B2 (en) Autonomous mobile robot
JP5990453B2 (en) Autonomous mobile robot
JP6014484B2 (en) Autonomous mobile robot
WO2018137133A1 (en) Systems and methods for radar control on unmanned movable platforms
JP6469492B2 (en) Autonomous mobile robot
JP6758068B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
JP2017182692A (en) Autonomous Mobile Robot
JP6758069B2 (en) Autonomous flying robot
JP2018181116A (en) Unmanned aircraft, position estimation system, flight control system, position estimation method, control method, and program
WO2022239318A1 (en) Mobile body, movement control method, and program
JP2017068639A (en) Autonomous Mobile Robot
WO2023067892A1 (en) Information processing device, information processing method, and program
WO2021053715A1 (en) Control system and control method
JP2023070120A (en) Autonomous flight control method, autonomous flight control apparatus and autonomous flight control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171026

R150 Certificate of patent or registration of utility model

Ref document number: 6235213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250