JP6195450B2 - Autonomous flying robot - Google Patents
Autonomous flying robot Download PDFInfo
- Publication number
- JP6195450B2 JP6195450B2 JP2013017246A JP2013017246A JP6195450B2 JP 6195450 B2 JP6195450 B2 JP 6195450B2 JP 2013017246 A JP2013017246 A JP 2013017246A JP 2013017246 A JP2013017246 A JP 2013017246A JP 6195450 B2 JP6195450 B2 JP 6195450B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- target
- altitude
- flying robot
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 83
- 238000003384 imaging method Methods 0.000 claims description 54
- 238000000926 separation method Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 39
- 239000000284 extract Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 16
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000132092 Aster Species 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、侵入者等の移動物体に追従飛行する自律飛行ロボットに関し、特に、移動物体を見失ったときであっても当該移動物体を迅速に発見して追従飛行を行う自律飛行ロボットに関する。 The present invention relates to an autonomous flying robot that flies following a moving object such as an intruder, and more particularly to an autonomous flying robot that quickly finds the moving object and performs a follow-up flight even when the moving object is lost.
従来、追従対象に対して所定の距離を保ちつつ自律的に追従しながら移動する自律移動ロボットが提案されている。例えば、特許文献1には、カメラ画像に基づいて追従対象を認識し、当該追従対象までの距離を認識して、予め定めた距離に保って追従移動するよう移動制御する自律移動ロボットが開示されている。当該従来技術では、追従対象を見失ったとき(すなわち、追従対象である人物の認識に失敗したとき)、追従を止め動作を停止するよう制御される。
Conventionally, an autonomous mobile robot that moves while following autonomously while maintaining a predetermined distance with respect to the tracking target has been proposed. For example,
しかしながら、上記の従来技術は、追従対象を見失ったときに当該追従対象を迅速に発見できるよう制御するものではない。自律移動ロボットを侵入者の監視といった警備用途に利用する場合、侵入者の行為を監視したり侵入者からの攻撃を回避したりするためには、見失った侵入者を迅速に発見して追従移動を継続する必要がある。ところで、近年、移動経路上に存在する物体や段差等の障害物に移動を制限されることなく空間内を自由に移動でき、侵入者等から攻撃され難い位置に移動できるといった面から、小型の飛行ロボットを自律的に移動させて侵入者を監視するといった自律飛行ロボットの利用が検討されている。このような自律飛行ロボットは、飛行高度を上げることにより、周囲を俯瞰的に監視できるといった特徴を有している。そこで、本発明は、このような自律飛行ロボットの特徴に着目し、追従対象を見失ったときに飛行高度を上げることにより、当該追従対象を迅速に発見できるよう移動制御することを目的とする。 However, the above-described conventional technology does not perform control so that the tracking target can be quickly found when the tracking target is lost. When using autonomous mobile robots for security purposes such as monitoring intruders, in order to monitor the actions of intruders and to avoid attacks from intruders, we quickly find missing intruders and follow them. Need to continue. By the way, in recent years, from the aspect of being able to move freely in space without being restricted by obstacles such as objects and steps on the moving path, it is possible to move to a position where it is difficult to be attacked by intruders, etc. The use of autonomous flying robots, such as autonomously moving a flying robot to monitor an intruder, has been studied. Such an autonomous flight robot has a feature that the surroundings can be monitored from a bird's-eye view by raising the flight altitude. Accordingly, the present invention focuses on the characteristics of such an autonomous flying robot and aims to perform movement control so that the tracking target can be quickly found by raising the flight altitude when the tracking target is lost.
かかる課題を解決するために、飛行空間内において移動物体に追従飛行して該移動物体を撮像部にて撮像する自律飛行ロボットであって、記憶部と、自律飛行ロボットの自己位置を推定する処理と、前記撮像部にて取得した撮像画像及び前記自己位置により前記移動物体の移動物体位置を推定する処理とを行う位置推定手段と、前記位置推定手段にて前記移動物体位置を推定できるとき、所定の標準高度の位置であって該移動物体位置から所定の標準離間距離だけ離れた位置に移動目標位置を設定する通常設定処理と、前記位置推定手段にて前記移動物体位置を推定できないとき、前記標準高度よりも高い高高度の位置に移動目標位置を設定する探索設定処理とを行う目標設定手段と、前記自己位置から前記移動目標位置へ移動するよう制御する処理を行う移動制御手段と、を有し、前記各処理を逐次繰り返すことによって追従飛行することを特徴とする自律飛行ロボットを提供する。 In order to solve such a problem, an autonomous flying robot that follows a moving object in a flight space and images the moving object with an imaging unit, the storage unit and a process for estimating the self-position of the autonomous flying robot A position estimation unit that performs a process of estimating a moving object position of the moving object based on a captured image acquired by the imaging unit and the self position, and the moving object position can be estimated by the position estimation unit, A normal setting process for setting a movement target position at a position of a predetermined standard altitude and a position away from the moving object position by a predetermined standard separation distance; and when the moving object position cannot be estimated by the position estimating means, Target setting means for performing search setting processing for setting a movement target position at a high altitude position higher than the standard altitude, and control to move from the self position to the movement target position A processing movement control means for performing that, the, to provide autonomous flying robots, characterized in that to follow the flight by repeating the respective processes successively.
かかる構成により、本発明の目標設定手段は、撮像部にて移動物体を撮像できなくなって当該移動物体を見失い、移動物体位置を推定できなくなったとき(以下、「移動物体失跡時」という)においては、移動物体を見失わずに追従飛行している時(通常時)における飛行高度よりも高高度の位置に移動目標位置を設定する処理を行う。これにより、本発明の自律飛行ロボットは、移動物体を見失った場合であっても、飛行高度を上げるよう飛行制御することによって、撮像部によって撮像できる範囲(視野)が広くなることから、広範囲に周囲を俯瞰することができ、ひいては移動物体を迅速に発見することが可能となり、迅速に追従飛行を再継続することが可能となる。 With such a configuration, the target setting unit of the present invention can detect a moving object by the imaging unit, loses sight of the moving object, and cannot estimate the position of the moving object (hereinafter referred to as “moving object remnant”). Performs a process of setting the movement target position at a position higher than the flight altitude when following the flight without losing sight of the moving object (normal time). As a result, the autonomous flying robot of the present invention has a wide range (field of view) that can be imaged by the imaging unit by performing flight control so as to increase the flight altitude even when a moving object is lost. It is possible to look down on the surroundings, and thus, it is possible to quickly find a moving object, and it is possible to quickly continue the follow-up flight.
また、本発明の好ましい態様として、前記記憶部は、前記撮像部の視野を示す撮像条件情報と前記飛行空間における所定の基準位置とを記憶し、前記位置推定手段は、自律飛行ロボットの姿勢を更に推定し、前記目標設定手段は、前記探索設定処理として、前記撮像条件情報を用いて前記高高度の位置から前記基準位置を撮像できる探索離間距離を算出し、該基準位置から該探索離間距離だけ離れた位置に前記移動目標位置を設定し、前記移動制御手段は、前記位置推定手段にて前記移動物体位置を推定できるとき、前記撮像部が前記移動物体位置の方向を向くよう前記姿勢を制御し、前記位置推定手段にて前記移動物体位置を推定できないとき、前記撮像部が前記基準位置の方向を向くよう前記姿勢を制御するものとする。 Moreover, as a preferred aspect of the present invention, the storage unit stores imaging condition information indicating a field of view of the imaging unit and a predetermined reference position in the flight space, and the position estimation unit is configured to determine an attitude of the autonomous flying robot. Further, the target setting means calculates a search separation distance at which the reference position can be imaged from the high altitude position using the imaging condition information as the search setting processing, and the search separation distance from the reference position. The movement target unit sets the movement target position at a position separated by a distance, and the movement control unit sets the posture so that the imaging unit faces the direction of the moving object position when the position estimation unit can estimate the moving object position. When the position of the moving object cannot be estimated by the position estimation means, the posture is controlled so that the imaging unit faces the direction of the reference position.
かかる構成により、移動物体に追従飛行している通常時においては、移動物体位置から所定の標準離間距離だけ離れた位置であって標準高度の位置より、当該移動物体の方向を向くよう姿勢制御することにより、移動物体を常に撮像しつつ追従飛行することができる。一方、移動物体失跡時においては、高高度の高さ位置から所定の基準位置(例えば、侵入者を発見し易い出入口位置や、検知したセンサの設置位置など)を撮像できる探索離間距離を算出し、当該基準位置から算出した探索離間距離だけ離れた位置であって、高高度の高さ位置を移動目標位置として設定し、さらに、基準位置の方向を向くよう姿勢制御する。これにより、移動物体失跡時においては、高高度の位置から基準位置を撮像できる位置に向かって位置移動するとともに、常に撮像部を基準位置の方向を向くことから、見失った移動物体を発見し易い基準位置を高高度から俯瞰することができ、移動物体をより迅速に発見することが可能となる。 With such a configuration, during normal flight following a moving object, posture control is performed so that the position of the moving object is directed from the position of the standard altitude at a position away from the moving object position by a predetermined standard separation distance. Accordingly, it is possible to follow and fly while always imaging a moving object. On the other hand, when a moving object is lost, a search separation distance that can image a predetermined reference position (for example, an entrance / exit position where an intruder can be easily found or a detected sensor installation position) is calculated from a height position at a high altitude. Then, a position separated by the search separation distance calculated from the reference position and a height position at a high altitude is set as a movement target position, and posture control is performed so as to face the direction of the reference position. As a result, when the moving object is lost, the moving position is moved from a high altitude position toward a position where the reference position can be imaged, and the imaging unit is always directed toward the reference position, so that it is easy to find a missing moving object. The reference position can be looked down from a high altitude, and a moving object can be found more quickly.
また、本発明の好ましい態様として、前記移動制御手段は、前記探索設定処理として、直近の期間に推定した前記移動物体位置から前記基準位置を求めて前記記憶部に記憶する処理を行うものとする。 Moreover, as a preferable aspect of the present invention, the movement control means performs a process of obtaining the reference position from the moving object position estimated in the most recent period and storing it in the storage unit as the search setting process. .
かかる構成により、本発明の移動制御手段は、移動物体失跡時に、直近の期間に推定できた移動物体位置に基づいて基準位置を設定する。例えば、直前に推定した移動物体位置を移動物体位置として設定する。一般的に、追跡中の移動物体を見失ったとき、当該移動物体は見失った時に存在していた位置の近辺に存在している可能性が高い。そのため、見失う直前における期間の移動物体位置に基づいて基準位置に設定して、当該基準位置を高高度から俯瞰することにより、より効率的に移動物体を発見することができる。 With this configuration, the movement control unit of the present invention sets the reference position based on the moving object position that can be estimated in the most recent period when the moving object is lost. For example, the moving object position estimated immediately before is set as the moving object position. In general, when a moving object being tracked is lost, it is highly likely that the moving object is present in the vicinity of the position where it was lost. Therefore, a moving object can be found more efficiently by setting a reference position based on a moving object position in a period immediately before losing sight and looking down on the reference position from a high altitude.
また、本発明の好ましい態様として、前記記憶部は、前記移動物体の特徴部位の高さ位置を示す特徴位置を更に記憶し、前記目標設定手段は、前記通常設定処理として、前記撮像条件情報と前記特徴位置とを用いて前記移動物体位置より前記標準離間距離だけ離れた位置から前記移動物体の特徴部位を撮像できる高度を算出し、該高度を前記標準高度として前記記憶部に記憶するものとする。 As a preferred aspect of the present invention, the storage unit further stores a feature position indicating a height position of a feature part of the moving object, and the target setting unit includes the imaging condition information as the normal setting process. Calculating the altitude at which the characteristic part of the moving object can be imaged from the position separated from the moving object position by the standard separation distance using the characteristic position, and storing the altitude as the standard altitude in the storage unit; To do.
かかる構成により、本発明の自律飛行ロボットは、移動物体との離間距離(標準離間距離)と撮像部の撮像方向(俯角等)といった撮像条件情報とから当該侵入者の顔などの特徴部位を撮像できる飛行高度(標準高度)を求めて、当該飛行高度で追従飛行することにより、通常時においては移動物体の特徴部位を適切に撮像しつつ追従飛行することができる。 With such a configuration, the autonomous flying robot of the present invention images a characteristic part such as the face of the intruder from imaging condition information such as a separation distance (standard separation distance) from a moving object and an imaging direction (a depression angle, etc.) of the imaging unit. By obtaining a flying altitude (standard altitude) that can be performed and performing a follow-up flight at the flight altitude, it is possible to follow-up while normally imaging a characteristic part of a moving object.
また、本発明の好ましい態様として、前記目標設定手段は、前記撮像画像から前記移動物体の画像領域を抽出し、該画像領域と前記撮像条件情報と前記自己位置とを用いて前記移動物体の高さを推定し、該高さから前記特徴位置を推定して前記記憶部に記憶するものとする。 As a preferred aspect of the present invention, the target setting means extracts an image area of the moving object from the captured image, and uses the image area, the imaging condition information, and the self-position to determine the height of the moving object. It is assumed that the characteristic position is estimated from the height and stored in the storage unit.
かかる構成により、本発明の自律飛行ロボットは、撮像部で取得した撮像画像から移動物体の高さ、例えば侵入者の身長を推定し、推定した身長に応じて特徴位置(例えば顔位置であって、地面から顔中央までの高さ)を推定する。これにより、移動物体の大きさ、例えば侵入者の身長に応じて適切に特徴部位を撮像できる飛行高度を算出することができ、適切に特徴部位を撮像しつつ追従飛行することができる。 With this configuration, the autonomous flying robot of the present invention estimates the height of the moving object, for example, the height of the intruder from the captured image acquired by the imaging unit, and the feature position (for example, the face position) according to the estimated height. , The height from the ground to the center of the face). As a result, it is possible to calculate the flight altitude at which the characteristic part can be appropriately imaged according to the size of the moving object, for example, the height of the intruder, and to follow the flight while appropriately imaging the characteristic part.
上記のように、本発明の自律飛行ロボットは、追従対象である侵入者(移動物体)を見失ったとき、飛行高度を上げて周囲を俯瞰するように監視することにより、迅速に侵入者を発見することができる。 As described above, when the autonomous flying robot of the present invention loses sight of the intruder (moving object) to be tracked, it quickly finds the intruder by increasing the flight altitude and monitoring the surrounding area. can do.
以下、移動物体である侵入者に対して所定の相対距離を保ちながら追従飛行し、当該移動物体の画像を撮像する自律飛行ロボットについての実施形態について添付した図面を参照しながら詳細に説明する。また、本発明の飛行移動ロボットは、自動車等の人物以外の様々な移動物体についても同様に適用することができる。 Hereinafter, an embodiment of an autonomous flying robot that follows a flying object while keeping a predetermined relative distance to an intruder as a moving object and captures an image of the moving object will be described in detail with reference to the accompanying drawings. Further, the flying mobile robot of the present invention can be similarly applied to various moving objects other than a person such as an automobile.
図1に本実施形態で利用する自律飛行ロボット1の概観図を表す。また、図2に本実施形態で利用する自律飛行ロボット1の機能ブロック図を表す。図1に表すように、本実施形態で利用する自律飛行ロボット1は、符号2a〜2dに示す4枚のロータ2(プロペラ)が一平面上に存在し、各ロータ2が図示しないバッテリ(二次電池)により駆動するモータ6によって回転することによって飛行するクアッドロータ型の小型無人ヘリコプタである。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、本実施形態で利用する自律飛行ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、例えば、機体をヨー方向に回転させたいときは、符号fa〜fdの矢印で示すように前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与える。このように、各ロータ2の回転数を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。
FIG. 1 shows an overview of an autonomous
撮像部3は、例えばレンズなどの光学系および所定画素(例えば640×480画素)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、飛行空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施形態では、撮像部3は、その光軸が自律飛行ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して図示しない外部装置に送信されたりする。
通信部9は外部装置との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施形態では、撮像部3によって取得した撮像画像を図示しない警備センタに設置されたPCに送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。
The imaging unit 3 includes a two-dimensional image sensor having an optical system such as a lens and a two-dimensional array element such as a CCD or CMOS with predetermined pixels (for example, 640 × 480 pixels), and captures captured images of the flight space for a predetermined time. This is a so-called color camera that is acquired at intervals. In the present embodiment, the imaging unit 3 is installed in the housing part so that the optical axis thereof captures the front direction of the
The communication unit 9 is a communication module for performing wireless communication with an external device by, for example, a wireless LAN or a mobile phone line. In the present embodiment, by transmitting the captured image acquired by the imaging unit 3 to a PC installed in a security center (not shown), it is possible for a security guard or the like to remotely monitor an intruder.
距離検出センサ4は、自律飛行ロボット1の周囲に存在する障害物と距離検出センサ4との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施形態では、距離検出センサ4としてレーザスキャナを備えている。レーザスキャナは、一定の角度サンプル間隔の角度毎に二次元スキャンすることによって、地面(又は床面)から一定の高さの水平面における周囲に存在する物体(障害物)との距離情報を極座標値として取得することができるものである。ここで、レーザスキャナにおける二次元スキャンとは、予め設定された検知エリアを走査するように、放射状にレーザ光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求めることをいう。本実施形態では、角度サンプル間隔を0.25°、検出角度範囲を360°、センサ検出範囲を30mとして自律飛行ロボットの周囲の障害物との距離を測定可能なレーザセンサを用いている。なお、距離検出センサ4は、レーザスキャナから照射されるレーザの一部をミラー5で地面方向に反射させて計測された距離情報を利用して飛行高度を推測することにも利用している。
The
記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部との間でこれらの情報を入出力する。各種データには、2Dポイント情報81及びボクセル情報82、標準離間距離83、撮像条件情報84、特徴位置85、標準高度86の他、制御部7の各処理に用いられる設定値、閾値等の各種パラメータ84や、各センサ等からの出力値、撮像画像等が含まれる。The
2Dポイント情報81は、後述する位置推定手段71にて自律飛行ロボットの現在の飛行位置(以下、「自己位置」という)を推定するために利用する情報であり、グローバル座標と呼ばれる水平面における二次元の絶対座標上に表され、飛行空間における建造物等の障害物の外形を表す点集合の座標情報である。本実施形態では、飛行高度毎に設定された複数の点集合を2Dポイント情報として予め記憶部8に記憶していることとし、自律飛行ロボットの飛行高度によって対応する飛行高度の点集合を記憶部8から読み出して利用するものとする。
The
ボクセル情報82は、飛行空間をボクセル空間として複数のボクセルに分割して飛行空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶される情報である。本実施形態では、飛行空間を所定の大きさ(例えば15cm×15cm)に分割し、建造物等の障害物に位置するボクセルを「占有ボクセル」と定義して、自律飛行ロボット1が移動できない空間とした。そして、占有ボクセルの近くに存在する空間に位置するボクセルを「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルを「自由ボクセル」として定義した。そして、各ボクセルには、後述する移動経路生成手段にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値を持たせた。占有ボクセルのボクセルコスト値は最大値をとり、距離が大きくなるほどボクセルコスト値が小さくなるように、(ボクセルコスト値)=exp{−λ・(占有ボクセルからの距離)}の計算式からボクセルコスト値を算出した。ここでλは実験によって求めたパラメータである。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とした。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と再設定した。なお、自律飛行ロボット1が飛行空間における予め定めた移動可能空間の外に出ないようにするため、移動可能空間とその外部との境界となるボクセルを占有ボクセルと設定した。
The voxel information 82 is information that divides the flight space into a plurality of voxels as a voxel space and represents the structure of obstacles in the flight space, and is information that is set in advance by an administrator or the like and stored in the
標準離間距離83は、移動物体を見失わずに追従飛行している時(通常時)に自律飛行ロボット1と移動物体との間で維持すべき水平面における相対距離であり、自律飛行ロボット1の管理者等によって予め設定される値である。自律飛行ロボット1を用いて所定の移動物体を監視する場合、移動物体に近づいてより詳細な撮像画像を取得できる必要がある。しかし、侵入者などの敵対する移動物体から攻撃を受けないようにするためには一定距離以上離間する必要がある。そのため、本実施形態の自律飛行ロボット1は、移動物体の詳細な撮像画像を取得でき、かつ、当該移動物体から攻撃を受け難い距離に標準離間距離83を予め定めておき、当該標準離間距離を保ちつつ追従飛行するようにする。本実施形態では標準離間距離83を3mとして設定されているものとする。
The
撮像条件情報84は撮像部3の視野を表す情報であり、本実施形態では撮像部3の俯角θが撮像条件情報84として記憶部8に記憶されている。すなわち、撮像条件情報84は、撮像部3の設置角度によって管理者等によって適宜設定される値である。なお、自律飛行ロボット1に対して撮像部3の撮像方向を変更可能なカメラ制御装置を搭載した場合の他の実施形態においては、当該カメラ制御装置から撮像方向についての情報を取得してもよい。
The
特徴位置85は、移動物体の特徴部位の位置を表す情報である。ここで、特徴部位とは、移動物体を識別するにあたって特徴的な部位であって、移動物体を撮像したときに証拠能力の高い撮像画像を得られる移動物体の部位である。例えば、移動物体が人物であるとき特徴部位は頭部(顔)であり、移動物体が自動車であるときは特徴部位はナンバープレート部分である。本実施形態では、移動物体の全高における位置割合(例えば、全長を1としたとき特徴部位の位置を0.95とするなど)を特徴位置85として管理者等により設定されていることとする。
The
標準高度86は、通常時(移動物体を見失っていない時)において自律飛行ロボット1が飛行すべき高度であり、後述する目標設定手段73にて移動物体の高さ(特徴部位の高さ)に応じて標準高度86が求められ、更新される。なお、初期値は自律飛行ロボット1の管理者等によって予め設定され、本実施形態では2.5mとして設定されているものとする。
The
制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理(自己位置推定処理、移動物体位置推定処理)、速度推定処理、移動目標位置設定処理、経路生成処理、経路追従制御処理を行う一連の処理として、位置推定手段71、速度推定手段72、目標設定手段73、移動経路生成手段74、飛行制御手段75を含んでいる。
The
位置推定手段71は、距離検出センサ4及び撮像部3の出力に基づいて、飛行空間における自律飛行ロボット1の現在の飛行位置(自己位置)を推定する自己位置推定処理と、移動物体の現在位置(以下、「移動物体位置」という)とを推定する移動物体位置推定処理とを行う。
The position estimation means 71 includes a self-position estimation process for estimating the current flight position (self-position) of the
自己位置推定処理では、距離検出センサ4の出力と記憶部8に記憶された2Dポイント情報81とを用いて、自己位置として、水平面(XY平面)における位置x,yと、飛行高度zと、Z軸に対する回転角であるヨー角ψとを推定する処理を行う。
In the self-position estimation process, using the output of the
自己位置推定処理では、まず、レーザスキャナから照射されるレーザの一部をミラー5で地面方向に反射させて計測された距離情報を利用して、自己位置の飛行高度zを算出する。レーザスキャナによって計測された距離情報は、地面には建造物以外の物体(例えば荷物や乗り物など)が存在するため、必ずしも地面までの距離として正確に計測されるとは限らない。したがって、本実施形態では、これらの建造物以外の障害物の影響を受け難いようレーザスキャナによって計測された距離情報に対して拡張カルマンフィルタを適用することにより飛行高度を推定する。 In the self-position estimation process, first, the flight altitude z of the self-position is calculated using distance information measured by reflecting a part of the laser emitted from the laser scanner toward the ground with the mirror 5. The distance information measured by the laser scanner is not always accurately measured as the distance to the ground because an object other than a building (such as a luggage or a vehicle) exists on the ground. Therefore, in this embodiment, the flight altitude is estimated by applying the extended Kalman filter to the distance information measured by the laser scanner so that it is not easily affected by obstacles other than these buildings.
次に、自己位置推定処理では、自己位置のx,y,ヨー角ψを推定する。自己位置のx,y,ヨー角ψを推定するにあたり、まず、記憶部に記憶された2Dポイント情報81から飛行高度zに対応した飛行空間の二次元地図としての点集合を読み出す。そして、求めた点集合とレーザスキャナの出力とを用いて、ICP(Iterative Closest Point)アルゴリズムを利用した既知のスキャンマッチングにより自己位置のx,y,ヨー角ψを推定する。ICPアルゴリズムは、2つの点集合A,Bにおいてユークリッド距離が最小となる組合せを求めることによりマッチング処理するものである。すなわち、2Dポイント情報81の点集合と、自律飛行ロボット1に搭載されているレーザスキャナから取得したスキャンデータである入力点集合とをマッチングさせ位置誤差を修正することによって、グローバル座標における自己位置のx,y,ヨー角ψを推定することができる。Next, in the self-position estimation process, the x, y and yaw angles ψ of the self-position are estimated. Per the estimated self-position x, y, the yaw angle [psi, first reads the set point as a two-dimensional map of the flight space corresponding to the altitude z from the
移動物体位置推定処理では、撮像部3の出力である撮像画像を画像処理して、移動物体位置を推定する処理を行う。移動物体位置推定処理では、まず、撮像画像の各フレームを画像処理して移動物体の画像領域を抽出する処理を行う。本実施形態では、既知の従来技術(例えば、特開2006−146551号公報を参照)であるオプティカルフロー法を用いて移動物体の画像領域を抽出する。しかし、これに限らず、既知の従来技術であるブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器を用いて、移動物体である人物領域が含まれるか否かを識別し、人物領域として識別された当該画像領域を抽出してもよい。また、上記の各技術を組み合わせて用いてもよい。次に、移動物体位置推定処理では、当該抽出された移動物体の画像領域の位置に基づいて移動物体と自律飛行ロボット1との距離を推定する。具体的には、抽出した移動物体の画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体の頭頂部のy座標位置を当該対応表に照らし合わせて移動体との距離を推定する。しかし、これに限らず、抽出した移動物体の頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された移動物体の頭部の大きさを当該対応表に照らし合わせて移動物体との距離を推定してもよい。そして、抽出した人物領域の最上部の撮像画像上における位置座標(頭頂部位置)を用いて、移動物体が位置する方向を求める。この際、頭頂部位置と移動物体が位置する方向との対応表を予め記憶部8に記憶しておき、当該対応表を参照することにより、移動物体が位置する方向を求める。そして、自己位置から移動物体が存在する方向であって算出した移動物体との距離の分だけ離れた飛行空間における位置座標を求め、当該位置座標における高さ0の位置を移動物体位置として推定する。なお、撮像画像から抽出した移動物体の画像領域は、時間的に画像追跡されていることとする。
In the moving object position estimation process, a captured image that is an output of the imaging unit 3 is subjected to image processing, and a process of estimating the moving object position is performed. In the moving object position estimation process, first, each frame of the captured image is subjected to image processing to extract an image area of the moving object. In the present embodiment, an image region of a moving object is extracted using an optical flow method that is a known prior art (see, for example, Japanese Patent Application Laid-Open No. 2006-146551). However, the present invention is not limited to this, and using a classifier based on known prior art boosting learning (for example, a face detection method using an AdaBoost-based classifier using Haar-like features), a human region that is a moving object is detected. It may be determined whether or not the image area is included, and the image area identified as the person area may be extracted. Moreover, you may use combining said each technique. Next, in the moving object position estimation process, the distance between the moving object and the
なお、位置推定手段71は、移動物体位置推定処理にて移動物体位置が算出すると、当該移動物体位置に基づいてボクセル情報82を更新する処理を行う。具体的には、記憶部8のボクセル情報82に基づいたボクセル空間に、算出された移動物体位置を中心として監視対象の移動物体として予め定めた移動物体の大きさと略同じ大きさの円柱モデル(例えば、監視対象の移動物体を侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを占有ボクセルとして設定することによりボクセル情報82を更新する。後述するように、自律飛行ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように移動物体位置に基づいてボクセル情報82を更新することにより、自律飛行ロボット1と移動物体との接触を回避することができる。
When the moving object position is calculated in the moving object position estimation process, the position estimating unit 71 performs a process of updating the voxel information 82 based on the moving object position. Specifically, in the voxel space based on the voxel information 82 of the
速度推定手段72は、後述する飛行制御手段75における経路追従制御で利用するため、自律飛行ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する処理を行う。本実施形態では、位置推定手段71にて推定した自己位置(x,y,z,yaw)の時間変化から飛行速度を求めた。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定した。The speed estimation means 72 performs processing for estimating the current flight speed (v x , v y , v z , v yaw ) of the
目標設定手段73は、位置推定手段71で算出した自己位置及び移動物体位置と、記憶部8に記憶された各種情報とを用いて自律飛行ロボット1の移動目標位置を設定する移動目標位置設定処理を行う。図3は、移動目標位置設定処理を示すフローチャートであり、以下、同図を用いて移動目標位置設定処理の詳細について説明する。
The target setting unit 73 sets a movement target position of the
移動目標位置設定処理では、まず、位置推定手段71における移動物体位置推定処理にて移動物体位置が推定できているか否かを判定する(ST10)。本実施形態では、移動物体位置推定処理において移動物体の画像領域を抽出できないとき、又は抽出した移動物体の画像領域が人物領域ではないとき、移動物体位置推定処理にて移動物体位置を推定できないと判定される。ST10にて移動物体位置が推定できていると判定されたとき(ST10−Yes)、目標設定手段73は通常時(移動物体を見失っていない時)における移動目標位置を設定する処理として通常設定処理を行う(ST11〜ST15)。In the movement target position setting process, first, it is determined whether or not the moving object position can be estimated by the moving object position estimation process in the position estimation means 71 (ST10). In this embodiment, when the moving object position estimation process cannot extract the moving object image area, or when the extracted moving object image area is not a person area, the moving object position estimation process cannot estimate the moving object position. Determined. ST10 when the moving object position is determined to come estimated at (ST10-Yes), usually set as processing for setting the movement target position in the target setting means 73 normal (when not lose sight of the moving object) Processing is performed (ST11 to ST15).
通常設定処理では、まず、移動物体の高さを推定し、推定した移動物体の高さ情報を用いて特徴部位の高さを求める処理を行う(ST11)。本実施形態では、位置推定手段71にて推定した移動物体位置(移動物体と自律飛行ロボット1との間の距離)と抽出した移動物体の画像領域の大きさとに基づいて移動物体の高さを推定する。具体的には、移動物体位置推定処理にて抽出した移動物体の画像領域の大きさと移動物体の高さとの対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体の画像領域の大きさを当該対応表に照らし合わせて移動物体の高さを推定する。次に、記憶部8から特徴位置85を読み出し、推定した移動物体の高さに当該特徴位置85の位置割合を乗じることにより特徴部位の高さを算出する。例えば、特徴位置85として記憶された位置割合が0.95であり、移動物体の高さが1.7mと推定されたとき、1.7m×0.95≒1.62mとして特徴部位の高さDを求めることができる。In the normal setting process, first, the height of the moving object is estimated, and the process of obtaining the height of the feature part using the estimated height information of the moving object is performed (ST11). In the present embodiment, the height of the moving object is determined based on the moving object position estimated by the position estimating means 71 (distance between the moving object and the autonomous flying robot 1) and the size of the extracted moving object image area. presume. Specifically, a correspondence table between the size of the moving object image area extracted by the moving object position estimation process and the height of the moving object is created in advance for each flight altitude, and the current flight altitude and moving object image are created. The height of the moving object is estimated by comparing the size of the area with the correspondence table. Next, the
次に、通常設定処理では、算出した特徴部位の高さ等を用いて、通常時において人物の顔を撮像できる高度である標準高度86を算出し、当該標準高度86を移動すべき飛行高度である目標飛行高度として設定する処理を行う(ST12)。図4は、標準高度86の算出を説明する図であり、自律飛行ロボット1と移動物体Mとを横方向から見た場合における概略図である。図4において、移動物体Mの特徴部位の高さはDに相当し、標準離間距離83はLに相当する。ここで、撮像部3の俯角をθとしたとき、移動物体Mである人物の顔を撮像できる高度である標準高度86(図4における符号Hに対応)を、H=D+L・tanθによって算出することができる。このように、特徴位置85と標準離間距離83と撮像条件情報84(俯角θ)に応じて標準高度86を算出することにより、通常時において移動物体Mの特徴部位(例えば顔などの頭部)を撮像することが可能な飛行高度において、予め定めた標準離間距離83を保ちながら移動物体Mに追従飛行することができる。また、推定した移動物体Mの地面Gからの高さに応じて特徴位置85の高さを求めることにより、移動物体Mの高さに応じて特徴部位を撮像できる位置を標準高度86として設定することができる。例えば移動物体が人物である場合の子供と大人との身長の違いを考慮して、頭部を撮像できる高さに標準高度86を設定することができる。Next, in the normal setting process, a
次に、通常設定処理では、移動候補位置から標準離間距離83だけ離れた周囲の領域に複数の移動候補位置を設定する処理を行う(ST13)。本実施形態では、移動候補位置を、移動物体位置を中心とし標準離間距離を半径とした円状の位置で、かつ、ST12にて設定した目標飛行高度の領域に、それぞれ等間隔になるように設定する。図6は移動候補位置の設定についての説明図であり、時刻tのときにボクセルで表示した飛行空間の一部を真上から見下ろしたときの図である。同図において、符号Boで表した黒塗りされたボクセルは占有ボクセルであり、符号Bnで表した平行斜線(ハッチング)で塗られたボクセルは近接ボクセルであり、符号Bfで表した白色のボクセルは自由ボクセルである。図6の例では、基準位置として移動物体Mの位置(重心位置Mg)が設定されており、当該基準位置Mgを中心として離間距離である半径Lcの円周上に複数個の移動候補位置Pcを等間隔に設置する。なお、本実施形態では、基準位置Mgの周囲の位置に5°おきに72個の移動候補位置Pcを設置することとする。 Next, in the normal setting process, a process of setting a plurality of movement candidate positions in a surrounding area separated from the movement candidate position by a
次に、通常設定処理では、障害物の近傍に位置する移動候補位置Pcを、後述する移動目標位置を評価する際の評価対象から除外する処理を行う(ST14)。すなわち、自律飛行ロボット1が障害物に接触することを防止するために、障害物と干渉する位置にある移動候補位置Pcを除外し、かつ、障害物に接近する移動候補位置Pcも接触の危険性が増すことから当該移動候補位置Pcを除外する処理を行う。例えば図7に表すように、自由ボクセルBf以外のボクセル(占有ボクセルBo、近接ボクセルBn)と干渉する位置にある移動候補位置Pcが移動目標位置として設定されないよう、以下で説明する評価の対象から除外する。図7に表した移動候補位置Pcは、図6で表した移動候補位置Pcから近接ボクセルBnと干渉している移動候補位置Pcを除外した後のものであり、評価対象となっている移動候補位置Pcとなるものである。なお、近接ボクセルBnは移動目標位置に設定できないものの移動経路とすることはできるものとする。一方、占有ボクセルBoは移動目標位置に設定することができないだけでなく移動経路とすることもできない。このように、障害物の近傍に位置する移動候補位置Pcを評価対象から除外する処理を行うことにより、自律飛行ロボットと障害物との衝突を回避でき、かつ、全ての移動候補位置について評価することを省略できるため評価のための計算量を軽減することができる。
Next, in the normal setting process, a process of excluding the movement candidate position Pc located in the vicinity of the obstacle from the evaluation target when evaluating the movement target position described later is performed (ST14). That is, in order to prevent the
次に、目標設定手段73は、評価対象から除外されていない各移動候補位置Pcの評価値を算出し、評価値が最も大きい移動候補位置を移動目標位置として設定する(ST15)。この際、まず、自律飛行ロボット1の現在の自己位置から各移動候補位置までの距離が小さいほど評価値が大きくなるようにする。また、前回設定した移動目標位置からの移動候補位置までの距離が小さいほど評価値が大きくなるようにする。本実施形態における評価値Vを求める具体的な評価式を数1で表す。
続いて、ST10にて移動物体位置が推定できていないと判定されたとき(ST10−No)、目標設定手段73は移動物体失跡時における移動目標位置を設定する処理として探索設定処理を行う(ST16〜ST21)。探索設定処理では、まず、前回(直前に)設定された目標飛行高度が8m以上であるか否かを判定する(ST16)
ST16にて前回設定された目標飛行高度が8m以上であると判定されたとき(ST16−Yes)、処理をST18に進める。一方、ST16にて前回設定された目標飛行高度が8m以上ではないと判定されたとき(ST16−No)、目標飛行高度を現在の飛行高度(自己位置のz軸の座標)よりも1mだけ大きい値に修正する処理を行う(ST17)。例えば、現在の飛行高度が3mであったとき、ST17では今回処理における目標飛行高度として3+1=4mが設定されることになる。なお、上記実施形態では、ST17にて目標飛行高度を「現在の飛行高度+1」によって設定しているが、これに限らず、前回(直前に)設定された目標飛行高度を1mだけ増加する処理を行ってもよい。例えば、直前の処理において、標準高度86として算出された3mの目標飛行高度が設定されていたとき、ST17では今回処理における目標飛行高度として3+1=4mが設定されることになる。いずれにせよ、ST17にて設定される目標飛行高度は、標準高度86よりも高い高高度の位置として設定されることになる。
Subsequently, when it is determined in ST10 that the moving object position cannot be estimated (ST10-No), the target setting unit 73 performs search setting processing as processing for setting the moving target position when the moving object is lost (ST16). ~ ST21). In the search setting process, first, it is determined whether or not the target flight altitude previously set (immediately before) is 8 m or more (ST16).
When it is determined in ST16 that the previously set target flight altitude is 8 m or more (ST16-Yes), the process proceeds to ST18. On the other hand, when it is determined in ST16 that the previously set target flight altitude is not 8 m or more (ST16-No), the target flight altitude is 1 m higher than the current flight altitude (the z-axis coordinate of the self position). Processing to correct the value is performed (ST17). For example, when the current flight altitude is 3 m, in ST17, 3 + 1 = 4 m is set as the target flight altitude in the current process. In the above embodiment, the target flight altitude is set as “current flight altitude + 1” in ST17. However, the present invention is not limited to this, and the process of increasing the target flight altitude set last time (immediately before) by 1 m is performed. May be performed. For example, when the target flight altitude of 3 m calculated as the
次に、探索設定処理では、予め記憶した撮像条件情報84を用いて、移動物体失跡時においてST17にて算出した目標飛行高度(高高度の位置)から基準位置を撮像できる離間距離である探索離間距離を算出する処理を行う(ST18)。本実施形態では、本発明の基準位置として、飛行空間に存在する監視対象建物の出入口の位置座標(以下、「出入口位置」という)が設定されていることとする。例えば、出入口位置として、高さ0mの予め測定された水平位置が予め管理者等によって設定され、記憶部8に記憶されていることとする。図5は、探索離間距離の算出を説明する図であり、飛行空間において自律飛行ロボット1と建物Aとを横方向から見た場合における概略図である。同図において、符号Eは建物Aの出入口、符号Egは出入口位置、符号H’はST17にて算出された目標飛行高度、符号L’は探索離間距離に相当する。ここで、撮像部3の俯角をθとしたとき、建物Aの出入口位置Egを撮像できる離間距離である探索離間距離L’を、L’=H’/tanθによって算出することができる。なお、本実施形態では出入口位置Egを高さ0mとしているが、高さは任意の所定値D’であってもよい。この場合、探索離間距離L’を、L’=(H’−D’)/tanθによって算出することができる。また、本実施形態では、基準位置を出入口位置Egとして設定しているが、これに限らず、例えば、侵入者の存在を感知したセンサの位置としてもよい。Next, in the search setting process, a search separation that is a separation distance at which the reference position can be imaged from the target flight altitude (high altitude position) calculated in ST17 when the moving object is lost using the
次に、探索設定処理では、算出した目標飛行高度と探索離間距離L’とを用いて移動目標位置Poを設定するための各処理が実施される(ST19〜ST21)。図8は移動物体失跡時における移動目標位置の設定を説明する図である。同図に表すように、移動物体失跡時においても通常設定処理と同様に、ST18にて設定された基準位置(出入口位置Eg)から、ST18にて設定された探索離間距離L’だけ離れた位置に移動候補位置Pcが複数個設定される(ST19)。そして、障害物の近傍に位置する移動候補位置Pcが評価対象から除外され(ST20)、評価対象とされた各移動候補位置Pcについて数1の式にて評価し、評価値Vが最大の移動候補位置Pcを移動目標位置Poとして設定される(ST21)。このように、探索設定処理におけるST19〜ST21までの各処理は、通常設定手段におけるST13〜ST15までの各処理と略同様に実施されるため、ここでは詳細な説明を省略する。Next, in the search setting process, each process for setting the movement target position Po is performed using the calculated target flight altitude and the search separation distance L ′ (ST19 to ST21). FIG. 8 is a diagram for explaining the setting of the movement target position when the moving object is lost. As represented in the figure, as usual setting process even when the moving object Shisseki, from the set reference position at ST18 (entrance position Eg), separated by the search distance L 'which is set in ST 18 A plurality of movement candidate positions Pc are set in the position (ST19). Then, the movement candidate position Pc located in the vicinity of the obstacle is excluded from the evaluation target (ST20), and each movement candidate position Pc that is the evaluation target is evaluated by the
目標設定手段73にて移動目標位置設定処理を終えると、移動経路生成手段74は、記憶部に記憶されたボクセル情報と、目標設定手段にて算出した移動目標位置と、位置推定手段71にて算出した自己位置とを用いて自律飛行ロボットの移動経路を算出する移動経路生成処理を行う。具体的には、移動経路生成処理では、まず、記憶部からボクセル情報82を読出し、分割した移動可能な空間である自由ボクセルBf及び近接ボクセルBnの各ボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしてグラフ構造を生成する。図9はグラフ構造を説明する図であり、飛行空間における移動可能なボクセル(自由ボクセルBf又は近接ボクセルBn)の一部(27個)を切り欠いたものである。図9において符号Bで表す個々の立方体は自由ボクセルBf又は近接ボクセルBnを表すものである。また、これらのボクセルBの中心にある黒又はハッチングにて塗りつぶした球はノードであり、ノード間を連結する点線で表示する線分はエッジである。このようにボクセル情報82に基づいて全ての移動可能なボクセルについてグラフ構造を生成した後、自律飛行ロボット1が存在しているボクセルのノードから移動目標位置Poが存在しているボクセルのノードまでの移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路を探索する。この際、ボクセル情報82として記憶されたボクセルコストをA*経路探索法における移動コストとして利用する。移動経路生成手段74で生成された移動経路のデータは、経由点(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。When the target setting unit 73 finishes the movement target position setting process, the movement
飛行制御手段75は、移動経路生成手段74にて算出した移動経路情報と位置推定手段71にて推定した自己位置と速度推定手段72で推定した飛行速度とを用いて、各時刻での飛行制御値である速度指令値を求め、当該速度指令値に基づいてモータ6を制御し、ロータ2の回転数を制御することにより、自律飛行ロボット1が移動経路生成手段74で算出した移動経路に沿って飛行させる経路追従制御処理を行う。なお、本発明における「移動制御手段」は、本実施形態における移動経路生成手段74及び飛行制御手段75に対応する。
The flight control means 75 uses the travel route information calculated by the travel route generation means 74, the self-position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72 to control flight at each time. A speed command value that is a value is obtained, the
経路追従制御処理では、まず、各時刻での自律飛行ロボットが目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図10はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、飛行制御手段75は、移動経路生成手段74で生成された移動経路を記憶部8から読出し、自律飛行ロボットが現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、飛行制御手段は、求めた直線Wと自律飛行ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律飛行ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律飛行ロボット1は移動経路に沿って飛行していくことになる。
In the route follow-up control process, first, a process of calculating the nearest position (hereinafter referred to as “local target”) to be targeted by the autonomous flying robot at each time is performed. FIG. 10 is a diagram for explaining the calculation of the local target. In calculating the local target, the flight control means 75 reads the movement route generated by the movement route generation means 74 from the
次に、経路追従制御処理では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角ψの各方向毎に速度指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような速度指令値を求める。具体的には、XYZ軸方向の速度指令値u=(ux,uy,uz)は、位置推定手段で求めた自己位置r=(x,y,z)と速度推定手段で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各速度指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、速度指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の速度指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律飛行ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vψの式のようなPD制御により求める。なお、本実施形態では、通常時においては、目標角度ψ'を移動物体Mの方向、すなわち、移動物体位置の方向を向く角度とした。また、移動物体失跡時においては、目標角度ψ'を基準位置の方向、すなわち、予め設定した出入口位置の方向を向く角度とした。
Next, in the path following control process, speed command values u x , u y , u z , u ψ are calculated for each direction of X, Y, Z, and yaw angle ψ so as to fly toward the calculated local target. Process. At this time, a speed command value is determined so that the difference between the current self position and the position of the local target is small. Specifically, the speed command value u = (u x , u y , u z ) in the XYZ direction is estimated by the self position r = (x, y, z) obtained by the position estimation unit and the speed estimation unit. Using velocity v = (v x , v y , v z ), it is obtained by PID control. When each speed command value in the XYZ-axis directions is u = (u x , u y , u z ) and the local target is r ′ = (x, y, z), the speed command value is u = K p (r '-R) + K d · v + K i · e is calculated. Here, K p , K d , and K i are gains of PID control, respectively, and e = (e x , e y , e z ) is an integrated value of errors. On the other hand, the speed command value u ψ in the yaw angle direction includes the target angle of ψ ′, the attitude (angle) of the
このように、制御部7は、上述した位置推定手段71、速度推定手段72、目標設定手段73、移動経路生成手段74、飛行制御手段75における各処理を逐次繰り返す。これにより、本実施形態の自律飛行ロボット1は、移動物体Mから離間距離だけ離れた位置に対して移動目標位置を逐次更新し、その都度移動経路についても逐次更新していくことによって、当該移動物体と所定の離間距離を保ちつつ追従飛行することができる。また、自律飛行ロボット1は、移動物体失跡時においては標準高度86よりも高い高高度の位置に目標飛行高度が設定されることになる。このように、自律飛行ロボット1は、移動物体Mを見失った場合であっても、飛行高度を上げるよう飛行制御することによって、撮像部3によって撮像できる範囲(視野)が広くなり、広範囲に周囲を俯瞰することができ、移動物体を迅速に発見することが可能となる。そして、高高度の位置から移動物体Mを発見して移動物体位置を推定できたとき、当該移動物体Mと所定の離間距離を保ちつつ追従飛行を再開することができる。
In this way, the
また、通常時においては、標準離間距離83を離間距離Lcに設定し、かつ、移動物体Mの方向を向くよう姿勢制御することにより、移動物体Mからの攻撃を受け難い離間距離Lcを保ちつつ、当該移動物体Mを撮像することができる。そして、移動物体失跡時においては、撮像条件情報84(俯角θ)を用いて基準位置が撮像できる探索離間距離を算出して離間距離Lcに設定し、かつ、基準位置の方向を向くよう姿勢制御することにより、移動物体失跡時に高高度の位置に上昇移動した場合であっても、基準位置(例えば、出入口位置)を常に撮像し続けることができるよう水平位置を設定することができる。
Further, in normal times, the
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。 By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.
上記実施形態では、移動物体失跡時における探索設定処理において、予め定めた所定の位置(出入口位置)を基準位置として用いている(ST19)。しかし、これに限らず、直近に推定した移動物体位置から求めた位置を、基準位置として設定してもよい。例えば、直近に推定できた移動物体位置を一時的に記憶部8に記憶しておき、当該移動物体位置を基準位置として設定する。一般的に、追跡中の移動物体Mを見失ったとき、当該移動物体Mは見失った位置の近辺に存在している。そのため、見失う直前の移動物体位置を基準位置に設定して、高高度の位置に上昇移動することにより、より効率的に移動物体Mを発見することができる。なお、直近の期間に推定できた移動物体位置の時系列情報から移動物体Mの移動方向及び移動速度を推定し、これらの情報を用いて現在時刻における移動物体位置を推定して、推定した移動物体位置を基準位置に設定してもよい。
In the above-described embodiment, a predetermined position (entrance / exit position) set in advance is used as a reference position in the search setting process when the moving object is lost (ST19). However, the present invention is not limited to this, and a position obtained from the most recently estimated moving object position may be set as the reference position. For example, the moving object position that can be estimated most recently is temporarily stored in the
上記実施形態では、移動物体失跡時における探索設定処理において、目標飛行高度を標準高度86よりも高い高高度の位置へと段階的に変更させるよう処理している(ST17)。しかし、これに限らず、移動物体失跡時には予め設定された標準高度86よりも高い高高度の位置(例えば7mの高さの位置)を目標飛行高度として設定してもよい。 In the above embodiment, in the search setting process when the moving object is lost, the target flight altitude is changed stepwise to a higher altitude position higher than the standard altitude 86 (ST17). However, the present invention is not limited to this, and a high altitude position higher than the preset standard altitude 86 (for example, a position having a height of 7 m) may be set as the target flight altitude when the moving object is lost.
上記実施形態では、移動物体失跡時における探索設定処理において、基準位置(出入口位置)を撮像できる位置を求めるために探索離間距離を算出し(ST18)、基準位置から当該探索離間距離だけ離れた周囲の位置に移動候補位置を設定されている(ST19)。しかし、これに限らず、ST18にて探索離間距離を算出せずに予め設定された探索離間距離(固定値)を読み出して、当該探索離間距離を用いてST19にて移動候補位置Pcを設定してもよい。または、移動物体失跡時は、ST18にて探索離間距離を算出せずに、かつ、ST19にて移動候補位置Pcを設定せずに、ST17にて設定された標準高度86よりも高い高高度の位置であって予め設定された飛行空間内の水平位置(固定値)に移動目標位置Poを設定してもよい。
In the above embodiment, in the search setting process when the moving object is lost, the search separation distance is calculated in order to obtain a position where the reference position (entrance / entrance position) can be imaged (ST18), and the surroundings separated from the reference position by the search separation distance The movement candidate position is set at the position (ST19). However, the present invention is not limited to this, and the preset search separation distance (fixed value) is read without calculating the search separation distance in ST18, and the movement candidate position Pc is set in ST19 using the search separation distance. May be. Alternatively, when the moving object is lost, the search separation distance is not calculated in ST18, and the movement candidate position Pc is not set in ST19, and a high altitude higher than the
上記実施形態では、通常時における通常設定処理において、特徴位置85として移動物体の全高における位置割合を記憶部8に記憶し、当該位置割合と推定した移動物体Mの高さとを用いて特徴部位の高さDを推定し(ST11)、当該特徴部位の高さDを用いて特徴部位を撮像できる飛行高度である標準高度86(=H)を算出して当該標準高度86を目標飛行高度として設定している(ST12)。しかし、これに限らず、特徴位置85として所定の固定値を記憶しておき(例えば1.6m)、ST11にて移動物体Mの高さを推定することなく、ST12にて当該固定値を特徴部位の高さDとして利用してもよい。または、標準高度86として所定の固定値を記憶しておき(例えば2.5m)、ST11の処理を省略してST12にて当該固定値を目標飛行高度として設定してもよい。
In the above-described embodiment, in the normal setting process at the normal time, the position ratio at the total height of the moving object is stored in the
上記実施形態では、標準離間距離83として、自律飛行ロボット1と移動物体との間で維持すべき水平面における距離として設定されているが、これに限らず、自律飛行ロボット1と移動物体との間で維持すべき直線距離として設定さていてもよい。例えば、撮像部3の光学中心から移動物体の特徴位置に至る直線距離として記憶部8に設定されていてもよい。また、同じように、探索離間距離についても、上記実施形態のように水平面における距離として算出することに限定せず、高高度の位置から基準位置を撮像できる直線距離として算出してもよい。
In the above embodiment, the
上記実施形態では、飛行制御手段75にて速度指令値を算出するために、速度推定手段72にて自己速度を算出している。しかし、これに限らず、速度推定手段72を省略して自己速度を算出せずに速度指令値を算出してもよい。この場合、移動物体Mへの追従性能が劣るものの簡易的な処理で追従飛行することが可能となる。また、上記実施形態では、速度推定手段72にて自己位置に基づいて自己速度を算出している。しかし、これに限らず、IMU(Inertial Measurement Unit:慣性計測ユニット)などのセンサを利用したり、自律飛行ロボット1の真下方向を撮像するカメラを設置し、カメラからの撮像画像に基づいて既知のオプティカルフロー法を用いて自己速度を算出してもよい。
In the above embodiment, in order to calculate the speed command value by the flight control means 75 , the speed estimation means 72 calculates the self speed. However, the present invention is not limited to this, and the speed command value may be calculated without the speed estimation means 72 and without calculating the self speed. In this case, it is possible to follow the flight by a simple process that follow-up performance of the mobile object M is poor. In the above embodiment, the speed estimation unit 72 calculates the self speed based on the self position. However, the present invention is not limited to this. A sensor that uses a sensor such as an IMU (Internal Measurement Unit) or a camera that captures an image directly below the
上記実施形態では、距離検出センサ4としてレーザスキャナを用いて当該レーザセンサの出力から位置推定手段71にて自己位置を推定している。しかし、これに限らず、レーザスキャナの代わりとしてGPS、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の従来技術により自己位置を推定してもよい。
In the above embodiment, the position detection unit 71 estimates the self position from the output of the laser sensor using a laser scanner as the
上記実施形態では、制御部7において位置推定処理(自己位置推定処理、移動物体位置推定処理)、速度推定処理、移動目標位置設定処理、移動経路生成処理、経路追従制御処理の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律飛行ロボット1は、距離検出センサ4のレーザスキャナの出力及び撮像部3で取得した撮像画像を通信部9を介して無線通信により当該PCに送信する。そして、PCは、位置推定処理、速度推定処理、移動目標位置設定処理、移動経路生成処理、経路追従制御処理を実施し、経路追従制御処理にて求めた速度指令値を無線通信により自律飛行ロボット1に送信する。そして、自律飛行ロボット1は、通信部9を介して受信した速度指令値に基づいてモータ6の回転数を制御することにより、目的の位置に飛行する。このように、上記の一連の処理を外部PCを用いて分担することにより、自律飛行ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。
In the above embodiment, the
1・・・自律飛行ロボット
2・・・ロータ
3・・・撮像部
4・・・距離検出センサ
5・・・ミラー
6・・・モータ
7・・・制御部
71・・・位置推定手段
72・・・速度推定手段
73・・・目標設定手段
74・・・移動経路生成手段
75・・・飛行制御手段
8・・・記憶部
81・・・2Dポイント情報
82・・・ボクセル情報
83・・・標準離間距離
84・・・撮像条件情報
85・・・特徴位置
86・・・標準高度
87・・・各種パラメータ
9・・・通信部
L・・・標準離間距離
L’・・・探索離間距離
M・・・移動物体
Mg・・・移動物体の重心
G・・・地面
A・・・建物
E・・・出入口
Eg・・・出入口位置
Bo・・・占有ボクセル
Bn・・・近接ボクセル
Bf・・・自由ボクセル
Pc・・・移動候補位置
Po・・・移動目標位置
DESCRIPTION OF
Claims (5)
記憶部と、
自律飛行ロボットの自己位置を推定する処理と、前記撮像部にて取得した撮像画像及び前記自己位置により前記移動物体の移動物体位置を推定する処理とを行う位置推定手段と、
前記位置推定手段にて前記移動物体位置を推定できるとき、所定の標準高度の位置であって該移動物体位置から所定の標準離間距離だけ離れた位置に移動目標位置を設定する通常設定処理と、前記位置推定手段にて前記移動物体位置を推定できないとき、前記標準高度よりも高い高高度の位置に移動目標位置を設定する探索設定処理とを行う目標設定手段と、
前記自己位置から前記移動目標位置へ移動するよう制御する処理を行う移動制御手段と、を有し、
前記各処理を逐次繰り返すことによって追従飛行することを特徴とする自律飛行ロボット。 An autonomous flying robot that follows a moving object in flight space and images the moving object with an imaging unit,
A storage unit;
Position estimation means for performing processing for estimating the self-position of the autonomous flying robot, processing for estimating the moving object position of the moving object based on the captured image acquired by the imaging unit and the self-position, and
A normal setting process in which when the moving object position can be estimated by the position estimating means, the moving target position is set to a position at a predetermined standard altitude and a predetermined standard separation distance from the moving object position; A target setting means for performing a search setting process for setting a movement target position at a high altitude higher than the standard altitude when the position estimating means cannot estimate the moving object position;
Movement control means for performing a process of controlling to move from the self position to the movement target position,
An autonomous flying robot characterized in that it follows and flies by sequentially repeating each of the above processes.
前記位置推定手段は、自律飛行ロボットの姿勢を更に推定し、
前記目標設定手段は、前記探索設定処理として、前記撮像条件情報を用いて前記高高度の位置から前記基準位置を撮像できる探索離間距離を算出し、該基準位置から該探索離間距離だけ離れた位置に前記移動目標位置を設定し、
前記移動制御手段は、前記位置推定手段にて前記移動物体位置を推定できるとき、前記撮像部が前記移動物体位置の方向を向くよう前記姿勢を制御し、前記位置推定手段にて前記移動物体位置を推定できないとき、前記撮像部が前記基準位置の方向を向くよう前記姿勢を制御する請求項1に記載の自律飛行ロボット。 The storage unit stores imaging condition information indicating a field of view of the imaging unit and a predetermined reference position in the flight space,
The position estimating means further estimates the attitude of the autonomous flying robot,
The target setting means calculates a search separation distance at which the reference position can be imaged from the high altitude position using the imaging condition information as the search setting processing, and a position separated from the reference position by the search separation distance Set the movement target position to
The movement control unit controls the posture so that the imaging unit faces the direction of the moving object position when the position estimating unit can estimate the moving object position, and the position estimating unit controls the moving object position. The autonomous flying robot according to claim 1, wherein the posture is controlled so that the imaging unit faces a direction of the reference position when it cannot be estimated.
前記目標設定手段は、前記通常設定処理として、前記撮像条件情報と前記特徴位置とを用いて前記移動物体位置より前記標準離間距離だけ離れた位置から前記移動物体の特徴部位を撮像できる高度を算出し、該高度を前記標準高度として前記記憶部に記憶する請求項1から請求項3の何れか一項に記載の自律飛行ロボット。 The storage unit further stores a feature position indicating a height position of a feature part of the moving object,
The target setting means calculates, as the normal setting process, an altitude at which a feature part of the moving object can be imaged from a position separated from the moving object position by the standard separation distance using the imaging condition information and the feature position. The autonomous flying robot according to claim 1, wherein the altitude is stored in the storage unit as the standard altitude.
The target setting means extracts an image area of the moving object from the captured image, estimates a height of the moving object using the image area, the imaging condition information, and the self-position, and determines from the height The autonomous flying robot according to claim 4, wherein the characteristic position is estimated and stored in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013017246A JP6195450B2 (en) | 2013-01-31 | 2013-01-31 | Autonomous flying robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013017246A JP6195450B2 (en) | 2013-01-31 | 2013-01-31 | Autonomous flying robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014149621A JP2014149621A (en) | 2014-08-21 |
JP6195450B2 true JP6195450B2 (en) | 2017-09-13 |
Family
ID=51572568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013017246A Active JP6195450B2 (en) | 2013-01-31 | 2013-01-31 | Autonomous flying robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6195450B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6669948B2 (en) * | 2014-09-08 | 2020-03-18 | 日本電産株式会社 | Moving object control device and moving object |
JP6482856B2 (en) * | 2014-12-22 | 2019-03-13 | セコム株式会社 | Monitoring system |
JP6482857B2 (en) * | 2014-12-22 | 2019-03-13 | セコム株式会社 | Monitoring system |
JP6469487B2 (en) * | 2015-03-17 | 2019-02-13 | セコム株式会社 | Flying robot control system and flying robot |
WO2017038891A1 (en) * | 2015-09-04 | 2017-03-09 | Necソリューションイノベータ株式会社 | Flight control device, flight control method, and computer-readable recording medium |
CN108026715B (en) | 2015-09-15 | 2021-06-18 | 住友建机株式会社 | Excavator |
WO2017051732A1 (en) * | 2015-09-25 | 2017-03-30 | 株式会社日本自動車部品総合研究所 | Flight device |
JP6446415B2 (en) * | 2015-09-25 | 2018-12-26 | 株式会社Soken | Flight equipment |
JP6680498B2 (en) * | 2015-09-28 | 2020-04-15 | 株式会社日立システムズ | Autonomous flying vehicle, target tracking method |
JP6911762B2 (en) * | 2015-09-30 | 2021-07-28 | 株式会社ニコン | Flight equipment, mobile equipment and programs |
JP6755755B2 (en) * | 2016-01-28 | 2020-09-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Flight altitude controller, unmanned aerial vehicle, flight altitude control method and flight altitude control program |
CN114640827A (en) | 2016-01-29 | 2022-06-17 | 住友建机株式会社 | Shovel and autonomous flying body flying around shovel |
JP6663606B2 (en) * | 2016-03-08 | 2020-03-13 | 国立大学法人京都大学 | Unmanned aerial vehicle position estimation method and system |
KR20190009103A (en) | 2017-07-18 | 2019-01-28 | 삼성전자주식회사 | Electronic Device that is moved based on Distance to External Object and the Control Method |
JP6390015B2 (en) * | 2018-03-13 | 2018-09-19 | 株式会社プロドローン | Biological search system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299025A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Mobile robot control device, mobile robot control method and mobile robot control program |
JP2006146551A (en) * | 2004-11-19 | 2006-06-08 | Matsushita Electric Ind Co Ltd | Robot |
-
2013
- 2013-01-31 JP JP2013017246A patent/JP6195450B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014149621A (en) | 2014-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6195450B2 (en) | Autonomous flying robot | |
JP6029446B2 (en) | Autonomous flying robot | |
JP5990453B2 (en) | Autonomous mobile robot | |
JP6235213B2 (en) | Autonomous flying robot | |
JP6140458B2 (en) | Autonomous mobile robot | |
US20220335844A1 (en) | Systems and methods for vehicle guidance | |
US11592845B2 (en) | Image space motion planning of an autonomous vehicle | |
JP6664162B2 (en) | Autonomous flying robot | |
JP6599143B2 (en) | Autonomous mobile robot | |
JP6014485B2 (en) | Autonomous flying robot | |
JP6527726B2 (en) | Autonomous mobile robot | |
JP6014484B2 (en) | Autonomous mobile robot | |
KR101956447B1 (en) | Method and apparatus for position estimation of unmanned vehicle based on graph structure | |
JP6758068B2 (en) | Autonomous mobile robot | |
JP6469492B2 (en) | Autonomous mobile robot | |
JP6530212B2 (en) | Autonomous mobile robot | |
JP2017182692A (en) | Autonomous Mobile Robot | |
JP6758069B2 (en) | Autonomous flying robot | |
JP6595284B2 (en) | Autonomous mobile robot | |
JP6832394B2 (en) | Self-position estimator, self-regioselector, and learner | |
JP2021047744A (en) | Information processing device, information processing method and information processing program | |
Kang | Development of a Peripheral-Central Vision System to Detect and Characterize Airborne Threats | |
Upadhyay et al. | Multiple Drone Navigation and Formation Using Selective Target Tracking-Based Computer Vision. Electronics 2021, 10, 2125 | |
JP2023070120A (en) | Autonomous flight control method, autonomous flight control apparatus and autonomous flight control system | |
JP2024012827A (en) | Unmanned aircraft coping system and video tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6195450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |