JP6029446B2 - Autonomous flying robot - Google Patents

Autonomous flying robot Download PDF

Info

Publication number
JP6029446B2
JP6029446B2 JP2012272748A JP2012272748A JP6029446B2 JP 6029446 B2 JP6029446 B2 JP 6029446B2 JP 2012272748 A JP2012272748 A JP 2012272748A JP 2012272748 A JP2012272748 A JP 2012272748A JP 6029446 B2 JP6029446 B2 JP 6029446B2
Authority
JP
Japan
Prior art keywords
moving object
movement
flying robot
target
autonomous flying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012272748A
Other languages
Japanese (ja)
Other versions
JP2014119828A (en
Inventor
晴之 天本
晴之 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012272748A priority Critical patent/JP6029446B2/en
Publication of JP2014119828A publication Critical patent/JP2014119828A/en
Application granted granted Critical
Publication of JP6029446B2 publication Critical patent/JP6029446B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、侵入者等の移動物体に追従飛行して侵入者等の移動物体の証拠画像を取得する自律飛行ロボットに関する。   The present invention relates to an autonomous flight robot that flies following a moving object such as an intruder and acquires an evidence image of the moving object such as an intruder.

従来、自律的に移動して監視領域に侵入した侵入者の画像を取得する自律移動ロボットが提案されている。例えば、特許文献1には、検出したセンサの方向に自ら回転することによって侵入者を撮像したり、撮像画像から検出した顔領域の画像上における位置に基づいて侵入者を認識して、認識した方向に自ら回転することによって、侵入者を追尾し、撮像する自律移動ロボットが開示されている。   Conventionally, an autonomous mobile robot that autonomously moves and acquires an image of an intruder who has entered a monitoring area has been proposed. For example, in Patent Document 1, the intruder is imaged by rotating in the direction of the detected sensor, or the intruder is recognized based on the position of the face area detected from the captured image. An autonomous mobile robot that tracks and images an intruder by rotating itself in a direction is disclosed.

特開2006−024128号公報Japanese Patent Laid-Open No. 2006-024128

ところで、近年、移動経路上に存在する物体や段差等の障害物に移動を制限されることなく空間内を自由に移動でき、侵入者等から攻撃され難い位置に移動できるといった面から、小型の飛行ロボットを自律的に移動させて侵入者を監視するといった自律飛行ロボットの利用が検討されている。このような自律飛行ロボットを用いて侵入者を監視する場合、自律飛行ロボットが侵入者に対して所定の距離の位置まで近づいたとしても、飛行高度によっては適切に侵入者の証拠画像を取得できないという問題があった。そこで、本発明は、自律飛行ロボットに設置したカメラの撮像方向及び侵入者との離間距離に応じて自律飛行ロボットの飛行高度を決定することにより、侵入者の顔画像等の証拠画像を適切に撮影できるようにすることを目的とする。   By the way, in recent years, from the aspect of being able to move freely in space without being restricted by obstacles such as objects and steps on the moving path, it is possible to move to a position where it is difficult to be attacked by intruders, etc. The use of autonomous flying robots, such as autonomously moving a flying robot to monitor an intruder, has been studied. When such an autonomous flying robot is used to monitor an intruder, even if the autonomous flying robot approaches a position at a predetermined distance from the intruder, the evidence image of the intruder cannot be acquired properly depending on the flight altitude. There was a problem. Therefore, the present invention appropriately determines evidence images such as an intruder's face image by determining the flight altitude of the autonomous flight robot according to the imaging direction of the camera installed in the autonomous flight robot and the distance from the intruder. The purpose is to be able to shoot.

かかる課題を解決するために、移動物体と所定の離間距離を保って追従飛行して該移動物体を撮像部にて撮像する自律飛行ロボットであって、前記撮像部の視野を示す撮像条件情報と、前記移動物体からの水平面における離間距離と、前記移動物体の特徴部位の高さ位置を示す特徴位置とを記憶した記憶部と、前記移動物体の移動物体位置と自律飛行ロボットの自己位置及び姿勢とを推定する処理を行う位置推定手段と、前記自律飛行ロボットの移動経路を算出する処理を行う経路探索手段と、前記移動経路に沿って移動するよう制御し、かつ、前記撮像部が前記移動物体位置の方向を向くよう前記姿勢を制御する処理を行う飛行制御手段と、を有し、前記各処理を逐次繰り返すことによって追従飛行するものであって、前記経路探索手段は、前記離間距離と前記撮像条件情報と前記特徴位置とに応じて前記移動物体の特徴部位を撮像できる高度である目標飛行高度を算出する目標飛行高度算出手段と、該目標飛行高度の位置であって前記移動物体位置から前記離間距離だけ離れた位置に移動目標位置を設定する移動目標位置設定手段と、前記自己位置から該移動目標位置へ移動するよう前記移動経路を算出する移動経路算出手段と、を具備することを特徴とする自律飛行ロボットを提供する。 In order to solve such a problem, an autonomous flying robot that follows a moving object while keeping a predetermined separation distance and images the moving object with an imaging unit, imaging condition information indicating a field of view of the imaging unit; A storage unit that stores a distance in a horizontal plane from the moving object and a feature position indicating a height position of a feature part of the moving object; a moving object position of the moving object; and a self-position and posture of the autonomous flying robot A position estimation unit that performs a process of estimating the movement path, a route search unit that performs a process of calculating a movement path of the autonomous flying robot, a control to move along the movement path, and the imaging unit moves the movement Flight control means for performing a process for controlling the posture so as to face the direction of the object position, and performing the follow-up flight by sequentially repeating each of the processes, the route search means A target flight altitude calculating means for calculating a target flight altitude that is an altitude capable of imaging a characteristic part of the moving object according to the separation distance, the imaging condition information, and the characteristic position; and a position of the target flight altitude. a movement target position setting means for setting a moving target position in the separation distance away from the moving object position, a movement route calculating means for calculating the movement path to move to the movement target position from the self-position An autonomous flight robot is provided.

かかる構成により、本発明の自律飛行ロボットは、侵入者などの移動物体と所定の離間距離を保って当該移動物体に追従飛行することができる。さらに、当該離間距離と撮像部の撮像方向(俯角等)といった撮像条件情報とから当該侵入者の顔などの特徴部位を撮像できる飛行高度を求めて当該飛行高度で追従飛行することにより、当該移動物体の特徴部位を適切に撮像しつつ追従飛行することができる。   With this configuration, the autonomous flight robot of the present invention can follow and fly a moving object such as an intruder while maintaining a predetermined separation distance. Furthermore, the movement is performed by obtaining a flight altitude capable of imaging a characteristic part such as the face of the intruder from the imaging distance information such as the imaging distance (such as a depression angle) of the imaging unit and following the flight altitude. It is possible to follow and fly while appropriately imaging the characteristic part of the object.

また、本発明の好ましい態様として、前記目標飛行高度算出手段は、前記撮像部が撮像した撮像画像から前記移動物体の画像領域を抽出し、該画像領域と前記撮像条件情報と自己位置情報とを用いて前記移動物体の高さを推定し、該高さから前記特徴位置を推定して前記記憶部に記憶するものとする。 Further, as a preferred aspect of the present invention, the target flight altitude calculating means extracts an image area of the moving object from a captured image captured by the imaging unit , and extracts the image area, the imaging condition information, and self-position information. It is assumed that the height of the moving object is estimated, the feature position is estimated from the height, and is stored in the storage unit.

かかる構成により、本発明の自律飛行ロボットは、撮像部で取得した撮像画像から移動物体の高さ、例えば侵入者の身長を推定し、推定した身長に応じて特徴位置(例えば顔位置であって、地面から顔中央までの高さ)を推定する。これにより、移動物体の大きさ、例えば侵入者の身長に応じて適切に特徴部位を撮像できる飛行高度を算出することができ、適切に特徴部位を撮像しつつ追従飛行することができる。   With this configuration, the autonomous flying robot of the present invention estimates the height of the moving object, for example, the height of the intruder from the captured image acquired by the imaging unit, and the feature position (for example, the face position) according to the estimated height. , The height from the ground to the center of the face). As a result, it is possible to calculate the flight altitude at which the characteristic part can be appropriately imaged according to the size of the moving object, for example, the height of the intruder, and to follow the flight while appropriately imaging the characteristic part.

また、本発明の好ましい態様として、前記経路探索手段は、前記移動物体位置から前記離間距離だけ離れた周囲の位置に複数の移動候補位置を設定する移動候補位置設定手段を更に有し、前記移動目標位置設定手段は、前記各移動候補位置を評価して該移動候補位置のうちの一つを移動目標位置に設定するものであって、前記移動物体の正面方向を推定し、該移動候補位置のうち該正面方向に位置する移動候補位置が移動目標位置に設定され易いよう評価するものとする。   Moreover, as a preferred aspect of the present invention, the route search means further includes a movement candidate position setting means for setting a plurality of movement candidate positions at peripheral positions separated from the moving object position by the separation distance, and the movement The target position setting means evaluates each of the movement candidate positions and sets one of the movement candidate positions as a movement target position, estimates a front direction of the moving object, and Among them, it is evaluated that the movement candidate position located in the front direction is easily set as the movement target position.

かかる構成により、本発明の自律飛行ロボットは、移動物体の正面方向の位置において追従飛行し易くなる。これにより、移動物体の特徴部位の正面画像、例えば侵入者の正面顔画像などといったような証拠能力の高い撮像画像を取得することができる。   With this configuration, the autonomous flying robot of the present invention can easily follow and fly at a position in the front direction of the moving object. Thereby, it is possible to acquire a captured image with high evidence ability such as a front image of a characteristic part of a moving object, for example, a front face image of an intruder.

上記のように、本発明の自律飛行ロボットは、設置したカメラの撮像方向(例えば俯角)に応じて自らの飛行高度を決定することにより、侵入者の顔画像等の証拠画像を適切に撮影しつつ、当該侵入者に対して追従飛行することができる。   As described above, the autonomous flying robot of the present invention appropriately captures an evidence image such as an intruder's face image by determining its own flight altitude according to the imaging direction (for example, depression angle) of the installed camera. However, it is possible to follow and fly with respect to the intruder.

自律飛行ロボットの概観図Overview of autonomous flying robot 自律飛行ロボットの機能ブロック図Functional block diagram of autonomous flying robot 経路探索手段の機能ブロック図Functional block diagram of route search means 目標高度算出の説明図Illustration of target altitude calculation 移動候補位置の設定についての説明図Explanatory drawing about the setting of the movement candidate position 移動目標位置の設定についての説明図Explanatory diagram for setting the movement target position 移動経路の生成におけるグラフ構造の説明図Explanatory diagram of the graph structure in the generation of travel paths ローカル目標算出の説明図Illustration of local target calculation 移動物体の正面方向への移動の説明図Explanatory drawing of movement of moving object in front direction

以下、移動物体である人物に対して所定の相対距離を保ちながら追従飛行し、当該移動物体の画像を撮像する自律飛行ロボットについての実施形態について添付した図面を参照しながら詳細に説明する。なお、本発明の自律飛行ロボットは、自動車等の人物以外の移動物体についても同様に適用することができる。図1に本実施形態で利用する自律飛行ロボット1の概観図を表す。また、図2に本実施形態で利用する自律飛行ロボット1の機能ブロック図を表す。図1に表すように、本実施形態で利用する自律飛行ロボット1は、符号2a〜2dに示す4枚のロータ2(プロペラ)が一平面上に存在し、各ロータ2が図示しないバッテリ(二次電池)により駆動するモータ6によって回転することによって飛行するクアッドロータ型の小型無人ヘリコプタである。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、本実施形態で利用する自律飛行ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、例えば、機体をヨー方向に回転させたいときは、符号fa〜fdの矢印で示すように前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与える。このように、各ロータ2の回転数を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。   Hereinafter, an embodiment of an autonomous flight robot that follows a flying object while keeping a predetermined relative distance and captures an image of the moving object will be described in detail with reference to the accompanying drawings. The autonomous flying robot of the present invention can be similarly applied to a moving object other than a person such as an automobile. FIG. 1 shows an overview of an autonomous flying robot 1 used in the present embodiment. FIG. 2 shows a functional block diagram of the autonomous flying robot 1 used in the present embodiment. As shown in FIG. 1, in the autonomous flying robot 1 used in the present embodiment, four rotors 2 (propellers) indicated by reference numerals 2a to 2d are present on one plane, and each rotor 2 is not shown in a battery (two This is a quad-rotor type small unmanned helicopter that flies by rotating by a motor 6 driven by a secondary battery. Generally, in a single rotor type helicopter, the azimuth angle is maintained by canceling the counter torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quadrotor type helicopter such as the autonomous flying robot 1 used in the present embodiment, counter torque is canceled by using a rotor 2 that rotates in different directions in front and rear and left and right. For example, when it is desired to rotate the machine body in the yaw direction, a difference is given to the rotational speeds of the front and rear rotors 2a, 2c and the left and right rotors 2d, 2b as indicated by arrows fa to fd. Thus, by controlling the rotation speed of each rotor 2, various movements and adjustments of the posture can be performed.

撮像部3は、例えばレンズなどの光学系および所定画素(例えば640×480画素)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、飛行空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施形態では、撮像部3は、その光軸が自律飛行ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して図示しない外部装置に送信されたりする。
通信部9は外部装置との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施形態では、撮像部3によって取得した撮像画像を図示しない警備センタに設置されたPCに送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。
The imaging unit 3 includes a two-dimensional image sensor having an optical system such as a lens and a two-dimensional array element such as a CCD or CMOS with predetermined pixels (for example, 640 × 480 pixels), and captures captured images of the flight space for a predetermined time. This is a so-called color camera that is acquired at intervals. In the present embodiment, the imaging unit 3 is installed in the housing part so that the optical axis thereof captures the front direction of the autonomous flying robot 1 and is a space obliquely below by a predetermined depression angle θ from the horizontal plane (XY plane). It is installed to take pictures. The acquired captured image is output to the control unit 7 described later, and is stored in the storage unit 8 by the control unit 7, or transmitted to an external device (not shown) via the communication unit 9 described later.
The communication unit 9 is a communication module for performing wireless communication with an external device by, for example, a wireless LAN or a mobile phone line. In the present embodiment, by transmitting the captured image acquired by the imaging unit 3 to a PC installed in a security center (not shown), it is possible for a security guard or the like to remotely monitor an intruder.

距離検出センサ4は、自律飛行ロボット1の周囲に存在する障害物と距離検出センサ4との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施形態では、距離検出センサ4としてレーザスキャナを備えている。レーザスキャナは、一定の角度サンプル間隔の角度毎に二次元スキャンすることによって、地面(又は床面)から一定の高さの水平面における周囲に存在する物体(障害物)との距離情報を極座標値として取得することができるものである。ここで、レーザスキャナにおける二次元スキャンとは、予め設定された検知エリアを走査するように、放射状にレーザ光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求めることをいう。本実施形態では、角度サンプル間隔を0.25°、検出角度範囲を360°、センサ検出範囲を30mとして自律飛行ロボットの周囲の障害物との距離を測定可能なレーザセンサを用いている。なお、レーザスキャナから照射されるレーザの一部をミラー5で地面方向に反射させて計測された距離情報を利用して飛行高度を推測することにも利用している。   The distance detection sensor 4 is a sensor that detects a distance between an obstacle existing around the autonomous flying robot 1 and the distance detection sensor 4 and acquires a relative position of the obstacle existing in the sensor detection range. is there. In the present embodiment, a laser scanner is provided as the distance detection sensor 4. The laser scanner performs two-dimensional scanning for each angle of a certain angular sample interval, thereby polar information indicating the distance information from the ground (or floor surface) to an object (obstacle) existing in the horizontal plane at a certain height. Can be obtained as: Here, the two-dimensional scan in the laser scanner means that a search signal that is a laser beam is transmitted radially so as to scan a preset detection area, and is returned after being reflected by an object in the detection area. The distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained. In this embodiment, a laser sensor capable of measuring a distance from an obstacle around the autonomous flying robot is used with an angle sample interval of 0.25 °, a detection angle range of 360 °, and a sensor detection range of 30 m. In addition, it is also used to estimate the flight altitude using distance information measured by reflecting a part of the laser emitted from the laser scanner by the mirror 5 toward the ground.

記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部との間でこれらの情報を入出力する。各種データには、本発明の「障害物マップ」に対応する2Dポイント情報81及びボクセル情報82、離間距離83、撮像条件情報84、特徴位置85の他、制御部7の各処理に用いられる設定値、閾値等の各種パラメータ86や、各センサ等からの出力値、撮像画像等が含まれる。   The storage unit 8 is an information storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The storage unit 8 stores various programs and various data, and inputs / outputs such information to / from the control unit. The various data includes 2D point information 81 and voxel information 82 corresponding to the “obstacle map” of the present invention, a separation distance 83, imaging condition information 84, a characteristic position 85, and settings used for each process of the control unit 7. Various parameters 86 such as values and thresholds, output values from each sensor and the like, captured images, and the like are included.

2Dポイント情報81は、後述する位置推定手段71にて自律飛行ロボットの現在の飛行位置(以下、「自己位置」という)を推定するために利用する情報であり、グローバル座標と呼ばれる水平面における二次元の絶対座標上に表され、飛行空間における建造物等の障害物の外形を表す点集合の座標情報である。本実施形態では、飛行高度毎に設定された複数の点集合を2Dポイント情報として予め記憶部8に記憶していることとし、自律飛行ロボットの飛行高度によって対応する飛行高度の点集合を記憶部8から読み出して利用するものとする。   The 2D point information 81 is information used to estimate the current flight position (hereinafter referred to as “self position”) of the autonomous flying robot by the position estimation unit 71 described later, and is two-dimensional in a horizontal plane called global coordinates. This is coordinate information of a point set that is expressed on the absolute coordinates and represents the outer shape of an obstacle such as a building in the flight space. In the present embodiment, a plurality of point sets set for each flight altitude are stored in advance in the storage unit 8 as 2D point information, and the point set of the flight altitude corresponding to the flight altitude of the autonomous flying robot is stored in the storage unit. It is assumed that it is read from 8 and used.

ボクセル情報82は、飛行空間をボクセル空間として複数のボクセルに分割して飛行空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶される情報である。本実施形態では、飛行空間を所定の大きさ(例えば15cm×15cm)に分割し、建造物等の障害物に位置するボクセルを「占有ボクセル」と定義して、自律飛行ロボット1が移動できない空間とした。そして、占有ボクセルの近くに存在する空間に位置するボクセルを「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルを「自由ボクセル」として定義した。そして、各ボクセルには、後述する移動経路生成手段にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値を持たせた。占有ボクセルのボクセルコスト値は最大値をとり、距離が大きくなるほどボクセルコスト値が小さくなるように、(ボクセルコスト値)=exp{−λ・(占有ボクセルからの距離)}の計算式からボクセルコスト値を算出した。ここでλは実験によって求めたパラメータである。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とした。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と再設定した。なお、自律飛行ロボット1が飛行空間における予め定めた移動可能空間の外に出ないようにするため、移動可能空間とその外部との境界となるボクセルを占有ボクセルと設定した。   The voxel information 82 is information that divides the flight space into a plurality of voxels as a voxel space and represents the structure of obstacles in the flight space, and is information that is set in advance by an administrator or the like and stored in the storage unit 8. . In the present embodiment, the flying space is divided into a predetermined size (for example, 15 cm × 15 cm), and voxels located on obstacles such as buildings are defined as “occupied voxels”, and the space where the autonomous flying robot 1 cannot move is defined. It was. A voxel located in the space existing near the occupied voxel is defined as a “proximity voxel”, and a voxel located in an area where other flight is possible is defined as a “free voxel”. Each voxel is given a voxel cost value indicating an occupancy so that it can be used when a movement route is generated by the movement route generation means described later. The voxel cost value of the occupied voxel takes the maximum value, and the voxel cost is calculated from the formula of (voxel cost value) = exp {−λ · (distance from the occupied voxel)} so that the voxel cost value decreases as the distance increases. The value was calculated. Here, λ is a parameter obtained by experiment. A voxel having a voxel cost value equal to or greater than a predetermined threshold is set as a “proximity voxel”. Further, a voxel having a voxel cost value smaller than the threshold value is set as “free voxel”, and the voxel cost value of the voxel regarded as a free voxel is reset to 0. In order to prevent the autonomous flying robot 1 from going outside the predetermined movable space in the flight space, the voxel that is the boundary between the movable space and the outside is set as the occupied voxel.

離間距離83は、移動物体を追従飛行するにあたって、自律飛行ロボット1と移動物体との水平面における維持すべき相対距離であり、自律飛行ロボット1の管理者等によって予め設定される値である。自律飛行ロボット1を用いて所定の移動物体を監視する場合、移動物体に近づき、より詳細な撮像画像を取得できる必要がある。しかし、侵入者などの敵対する移動物体から攻撃を受けないようにするためには一定距離以上離間する必要がある。そのため、本実施形態の自律飛行ロボット1は、移動物体の詳細な撮像画像を取得でき、かつ、当該移動物体から攻撃を受け難い距離に離間距離83を予め定めておき、当該離間距離を保ちつつ追従飛行するようにする。本実施形態では離間距離83を3mとして設定されているものとする。   The separation distance 83 is a relative distance to be maintained on the horizontal plane between the autonomous flying robot 1 and the moving object when following the moving object, and is a value set in advance by an administrator of the autonomous flying robot 1 or the like. When a predetermined moving object is monitored using the autonomous flying robot 1, it is necessary to approach the moving object and acquire a more detailed captured image. However, in order not to be attacked by a hostile moving object such as an intruder, it is necessary to be separated by a certain distance or more. Therefore, the autonomous flying robot 1 of the present embodiment can acquire a detailed captured image of the moving object and set a separation distance 83 in advance at a distance that is difficult to receive an attack from the moving object, while maintaining the separation distance. Make a follow-up flight. In this embodiment, it is assumed that the separation distance 83 is set to 3 m.

撮像条件情報84は撮像部3の視野を表す情報であり、本実施形態では撮像部3の俯角θが撮像条件情報84として記憶部8に記憶されている。すなわち、撮像条件情報84は、撮像部3の設置角度によって管理者等によって適宜設定される値である。なお、自律飛行ロボット1に対して撮像部3の撮像方向を変更可能なカメラ制御装置を搭載した場合の他の実施形態においては、当該カメラ制御装置から撮像方向についての情報を取得してもよい。   The imaging condition information 84 is information representing the field of view of the imaging unit 3, and the depression angle θ of the imaging unit 3 is stored in the storage unit 8 as the imaging condition information 84 in this embodiment. That is, the imaging condition information 84 is a value that is appropriately set by an administrator or the like depending on the installation angle of the imaging unit 3. In another embodiment in which a camera control device capable of changing the imaging direction of the imaging unit 3 is mounted on the autonomous flying robot 1, information about the imaging direction may be acquired from the camera control device. .

特徴位置85は、移動物体の特徴部位の位置を表す情報である。ここで、特徴部位とは、移動物体を識別するにあたって特徴的な部位であって、移動物体を撮像したときに証拠能力の高い撮像画像を得られる移動物体の部位である。例えば、移動物体が人物であるとき特徴部位は頭部(顔)であり、移動物体が自動車であるときは特徴部位はナンバープレート部分である。本実施形態では、移動物体の全高における位置割合(例えば、全長を1としたとき特徴部位の位置を0.95とするなど)を特徴位置85として管理者等により設定されていることとする。   The feature position 85 is information representing the position of the feature part of the moving object. Here, the characteristic part is a characteristic part for identifying the moving object, and is a part of the moving object that can obtain a captured image with high evidence ability when the moving object is imaged. For example, when the moving object is a person, the characteristic part is a head (face), and when the moving object is an automobile, the characteristic part is a license plate part. In the present embodiment, it is assumed that the position ratio (for example, the position of the characteristic part is set to 0.95 when the total length is 1) is set as the characteristic position 85 by the administrator or the like in the total height of the moving object.

制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理(自己位置推定処理、移動物体位置推定処理)、速度推定処理、経路探索処理、経路追従制御処理を行う一連の処理として、位置推定手段71、速度推定手段72、経路探索手段73、飛行制御手段74を含んでいる。   The control unit 7 is configured by a computer including a CPU and the like, and as a series of processes for performing position estimation processing (self-position estimation processing, moving object position estimation processing), speed estimation processing, route search processing, and route tracking control processing, Position estimation means 71, speed estimation means 72, route search means 73, and flight control means 74 are included.

位置推定手段71は、距離検出センサ4及び撮像部3の出力に基づいて、飛行空間における自律飛行ロボット1の現在位置(自己位置)を推定する自己位置推定処理と、移動物体の現在位置(以下、「移動物体位置」という)とを推定する移動物体位置推定処理とを行う。   The position estimation means 71 includes a self-position estimation process for estimating the current position (self-position) of the autonomous flying robot 1 in the flight space based on the outputs of the distance detection sensor 4 and the imaging unit 3 and , Referred to as “moving object position”).

自己位置推定処理では、距離検出センサ4の出力と記憶部8に記憶された2Dポイント情報81とを用いて、自己位置として、水平面(XY平面)における位置x,yと、飛行高度zと、Z軸に対する回転角であるヨー角ψとを推定する処理を行う。   In the self-position estimation process, using the output of the distance detection sensor 4 and the 2D point information 81 stored in the storage unit 8, as the self-position, the position x, y on the horizontal plane (XY plane), the flight altitude z, A process of estimating the yaw angle ψ, which is the rotation angle with respect to the Z axis, is performed.

自己位置推定処理では、まず、レーザスキャナから照射されるレーザの一部をミラー5で地面方向に反射させて計測された距離情報を利用して、自己位置の飛行高度zを算出する。レーザスキャナによって計測された距離情報は、地面には建造物以外の物体(例えば荷物や乗り物など)が存在するため、必ずしも地面までの距離として正確に計測されるとは限らない。したがって、本実施形態では、これらの建造物以外の障害物の影響を受け難いようレーザスキャナによって計測された距離情報に対して拡張カルマンフィルタを適用することにより飛行高度を推定する。   In the self-position estimation process, first, the flight altitude z of the self-position is calculated using distance information measured by reflecting a part of the laser emitted from the laser scanner toward the ground with the mirror 5. The distance information measured by the laser scanner is not always accurately measured as the distance to the ground because an object other than a building (such as a luggage or a vehicle) exists on the ground. Therefore, in this embodiment, the flight altitude is estimated by applying the extended Kalman filter to the distance information measured by the laser scanner so that it is not easily affected by obstacles other than these buildings.

次に、自己位置推定処理では、自己位置のx,y,ヨー角ψを推定する。自己位置のx,y,ヨー角ψを推定にあたり、まず、記憶部に記憶された2Dポイント情報81から飛行高度zに対応した飛行空間の二次元地図としての点集合を読み出す。そして、求めた点集合とレーザスキャナの出力とを用いて、ICP(Iterative Closest Point)アルゴリズムを利用した既知のスキャンマッチングにより自己位置のx,y,ヨー角ψを推定する。ICPアルゴリズムは、2つの点集合A,Bにおいてユークリッド距離が最小となる組合せを求めることによりマッチング処理するものである。すなわち、2Dポイント情報81の点集合と、自律飛行ロボット1に搭載されているレーザスキャナから取得したスキャンデータである入力点集合とをマッチングさせ位置誤差を修正することによって、グローバル座標における自己位置のx,y,ヨー角ψを推定することができる。   Next, in the self-position estimation process, the x, y and yaw angles ψ of the self-position are estimated. In estimating the x, y, and yaw angles ψ of the self-position, first, a point set as a two-dimensional map of the flight space corresponding to the flight altitude z is read from the 2D point information 81 stored in the storage unit. Then, using the obtained point set and the output of the laser scanner, the x, y, and yaw angles ψ of the self-position are estimated by known scan matching using an ICP (Iterative Closest Point) algorithm. The ICP algorithm performs a matching process by obtaining a combination that minimizes the Euclidean distance between the two point sets A and B. That is, by matching the point set of the 2D point information 81 with the input point set that is the scan data acquired from the laser scanner mounted on the autonomous flying robot 1 to correct the position error, x, y, and yaw angle ψ can be estimated.

移動物体位置推定処理では、撮像部3の出力である撮像画像を画像処理して、移動物体位置を推定する処理を行う。移動物体位置推定処理では、まず、撮像画像の各フレームを画像処理して移動物体の画像領域を抽出する処理を行う。本実施形態では、既知の従来技術(例えば、特開2006−146551号公報を参照)であるオプティカルフロー法を用いて移動物体の画像領域を抽出する。しかし、これに限らず、既知の従来技術であるブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器を用いて、移動物体である人物領域が含まれるか否かを識別し、人物領域として識別された当該画像領域を抽出してもよい。また、上記の各技術を組み合わせて用いてもよい。次に、移動物体位置推定処理では、当該抽出された画像領域の位置に基づいて移動物体と自律飛行ロボット1との距離を推定する。具体的には、抽出した移動物体の画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体の頭頂部のy座標位置を当該対応表に照らし合わせて移動体との距離を推定する。しかし、これに限らず、抽出した移動物体の頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された移動物体の頭部の大きさを当該対応表に照らし合わせて移動物体との距離を推定してもよい。   In the moving object position estimation process, a captured image that is an output of the imaging unit 3 is subjected to image processing, and a process of estimating the moving object position is performed. In the moving object position estimation process, first, each frame of the captured image is subjected to image processing to extract an image area of the moving object. In the present embodiment, an image region of a moving object is extracted using an optical flow method that is a known prior art (see, for example, Japanese Patent Application Laid-Open No. 2006-146551). However, the present invention is not limited to this, and using a classifier based on known prior art boosting learning (for example, a face detection method using an AdaBoost-based classifier using Haar-like features), a human region that is a moving object is detected. It may be determined whether or not the image area is included, and the image area identified as the person area may be extracted. Moreover, you may use combining said each technique. Next, in the moving object position estimation process, the distance between the moving object and the autonomous flying robot 1 is estimated based on the position of the extracted image region. Specifically, a correspondence table between the y coordinate position (in the captured image) and the distance of the top of the extracted moving object image area is prepared in advance for each flight altitude, and the current flight altitude and the head of the moving object are created. The distance from the moving body is estimated by comparing the top y coordinate position with the correspondence table. However, the present invention is not limited to this, and the distance may be calculated from the size of the head of the extracted moving object. That is, a correspondence table between the size and distance of the head may be created in advance, and the distance to the moving object may be estimated by comparing the size of the head of the extracted moving object with the correspondence table.

なお、位置推定手段71は、移動物体位置推定処理にて移動物体位置が算出すると、当該移動物体位置に基づいてボクセル情報82を更新する処理を行う。具体的には、記憶部8のボクセル情報82に基づいたボクセル空間に、算出された移動物体位置を中心として監視対象の移動物体として予め定めた移動物体の大きさと略同じ大きさの円柱モデル(例えば、監視対象の移動物体を侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを占有ボクセルとして設定することによりボクセル情報82を更新する。後述するように、自律飛行ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように移動物体位置に基づいてボクセル情報82を更新することにより、自律飛行ロボット1と移動物体との接触を回避することができる。   When the moving object position is calculated in the moving object position estimation process, the position estimating unit 71 performs a process of updating the voxel information 82 based on the moving object position. Specifically, in the voxel space based on the voxel information 82 of the storage unit 8, a cylindrical model (approximately the same size as a moving object that is predetermined as a moving object to be monitored centered on the calculated moving object position ( For example, when a moving object to be monitored is an intruder, a cylinder model having a bottom radius of 0.3 m and a height of 1.7 m is arranged, and a voxel that interferes with the cylinder model is set as an occupied voxel. To update the voxel information 82. As will be described later, the autonomous flying robot 1 is flight-controlled so as not to move to the occupied voxel. However, the autonomous flying robot 1 moves with the autonomous flying robot 1 by updating the voxel information 82 based on the moving object position as described above. Contact with an object can be avoided.

速度推定手段72は、後述する飛行制御手段74における経路追従制御で利用するため、自律飛行ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する処理を行う。本実施形態では、位置推定手段71にて推定した自己位置(x,y,z,yaw)の時間変化から飛行速度を求めた。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定した。 The speed estimation means 72 performs processing for estimating the current flight speed (v x , v y , v z , v yaw ) of the autonomous flying robot 1 in order to be used in path following control in the flight control means 74 described later. In the present embodiment, the flight speed is obtained from the time change of the self position (x, y, z, yaw) estimated by the position estimation means 71. At this time, the flight speed was estimated using an extended Kalman filter in consideration of the influence of measurement errors and the like.

経路探索手段73は、位置推定手段71で算出した自己位置及び移動物体位置と、記憶部8に記憶された各種情報とを用いて自律飛行ロボット1の移動経路を算出する処理を行う。図3に経路探索手段73の機能ブロック図を表す。経路探索手段73は、図3に表すように、目標飛行高度を算出する目標飛行高度算出手段734と、移動候補位置を設定する移動候補位置設定手段731と、複数の移動候補位置を評価してその中から一つの移動目標位置を設定する移動目標位置設定手段732と、自己位置から移動目標位置に至る移動経路を生成する移動経路生成手段733とにより構成される。以下、経路探索手段73を構成する各手段における処理の詳細について説明する。   The route search unit 73 performs a process of calculating the movement route of the autonomous flying robot 1 using the self position and the moving object position calculated by the position estimation unit 71 and various information stored in the storage unit 8. FIG. 3 shows a functional block diagram of the route search means 73. As shown in FIG. 3, the route search means 73 evaluates the target flight altitude calculation means 734 for calculating the target flight altitude, the movement candidate position setting means 731 for setting the movement candidate position, and the plurality of movement candidate positions. A moving target position setting unit 732 that sets one moving target position from among them, and a moving path generation unit 733 that generates a moving path from the self position to the moving target position are configured. The details of the processing in each means constituting the route search means 73 will be described below.

目標飛行高度算出手段734は、記憶部8に記憶された離間距離83と撮像条件情報84と特徴位置85とを用いて自律飛行ロボット1の移動すべき飛行高度である目標飛行高度を求める目標飛行高度算出処理を行う。   The target flight altitude calculation means 734 uses the separation distance 83, the imaging condition information 84, and the characteristic position 85 stored in the storage unit 8 to obtain a target flight altitude that is a flight altitude that the autonomous flying robot 1 should move. Perform altitude calculation processing.

目標飛行高度算出処理では、まず、移動物体の高さを推定し、推定した移動物体の高さ情報を用いて特徴部位の高さを求める処理を行う。本実施形態では、位置推定手段71にて推定した移動物体位置(移動物体と自律飛行ロボット1との間の距離)と抽出した移動物体の画像領域の大きさとに基づいて移動物体の高さを推定する。具体的には、移動物体位置推定処理にて抽出した移動物体の画像領域の大きさと移動物体の高さとの対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体の画像領域の大きさを当該対応表に照らし合わせて移動物体の高さを推定する。
次に、記憶部8から特徴位置85を読み出し、推定した移動物体の高さに当該特徴位置85の位置割合を乗じることにより特徴部位の高さを算出する。例えば、特徴位置85として記憶された位置割合が0.95であり、移動物体の高さが1.7mと推定されたとき、1.7m×0.95≒1.62mとして特徴部位の高さを求めることができる。
In the target flight altitude calculation process, first, the height of the moving object is estimated, and the process of obtaining the height of the characteristic part using the estimated height information of the moving object is performed. In the present embodiment, the height of the moving object is determined based on the moving object position estimated by the position estimating means 71 (distance between the moving object and the autonomous flying robot 1) and the size of the extracted moving object image area. presume. Specifically, a correspondence table between the size of the moving object image area extracted by the moving object position estimation process and the height of the moving object is created in advance for each flight altitude, and the current flight altitude and moving object image are created. The height of the moving object is estimated by comparing the size of the area with the correspondence table.
Next, the feature position 85 is read from the storage unit 8, and the height of the feature part is calculated by multiplying the estimated height of the moving object by the position ratio of the feature position 85. For example, when the position ratio stored as the feature position 85 is 0.95 and the height of the moving object is estimated to be 1.7 m, the height of the feature portion is 1.7 m × 0.95≈1.62 m. Can be requested.

次に、目標飛行高度算出処理では、算出した特徴部位の高さ等を用いて目標飛行高度を算出する処理を行う。図4は、目標飛行高度の算出の説明図を表す図であり、自律飛行ロボット1と移動物体Mとを横方向から見た場合における概略図である。図4において特徴部位の高さはHに相当し、離間距離83はLに相当する。ここで、撮像部3の俯角をθとしたとき、移動物体Mである人物の顔を撮像できる高度である目標飛行高度を、H+D=H+L・tanθによって算出することができる。   Next, in the target flight altitude calculation process, a process for calculating the target flight altitude is performed using the calculated height of the characteristic part or the like. FIG. 4 is a diagram illustrating the calculation of the target flight altitude, and is a schematic diagram when the autonomous flying robot 1 and the moving object M are viewed from the lateral direction. In FIG. 4, the height of the characteristic portion corresponds to H, and the separation distance 83 corresponds to L. Here, when the depression angle of the imaging unit 3 is θ, a target flight altitude that is an altitude at which the face of the person as the moving object M can be imaged can be calculated by H + D = H + L · tan θ.

このように、特徴位置85と離間距離83と撮像条件情報84(俯角θ)に応じて目標飛行高度を算出することにより、移動物体Mの特徴部位(例えば顔などの頭部)を撮像することが可能な飛行高度において、予め定めた離間距離83を保ちながら移動物体Mに追従飛行することができる。また、推定した移動物体Mの地面Gからの高さに応じて特徴位置85を更新することにより、移動物体Mの高さに応じて特徴部位を撮像できる位置に目標飛行高度を設定することができる。例えば移動物体が人物である場合の子供と大人との身長の違いを考慮して、頭部を撮像できる高さに目標飛行高度を設定することができる。   As described above, by calculating the target flight altitude according to the feature position 85, the separation distance 83, and the imaging condition information 84 (the depression angle θ), the feature part (for example, the head such as the face) of the moving object M is imaged. It is possible to follow the moving object M while maintaining a predetermined separation distance 83 at a flight altitude capable of the following. In addition, by updating the characteristic position 85 according to the estimated height of the moving object M from the ground G, the target flight altitude can be set at a position where the characteristic part can be imaged according to the height of the moving object M. it can. For example, in consideration of the difference in height between a child and an adult when the moving object is a person, the target flight altitude can be set to a height at which the head can be imaged.

目標飛行高度算出手段734にて目標飛行高度を算出する処理を終えると、移動候補位置設定手段731は、移動物体の周囲の位置に複数の移動候補位置を設定する処理を行う。本実施形態では、移動候補位置を、移動物体Mを中心とし記憶部8に記憶された離間距離83(=L)を半径とした円状の位置で、かつ、目標飛行高度算出手段734にて算出した目標飛行高度(=H+D)の位置に、それぞれ等間隔になるように設定する。図5は移動候補位置の設定についての説明図であり、ボクセルで表示した飛行空間の一部を真上から見下ろしたときの図である。同図において、符号Boで表した黒塗りされたボクセルは占有ボクセルであり、符号Bnで表した平行斜線(ハッチング)で塗られたボクセルは近接ボクセルであり、符号Bfで表した白色のボクセルは自由ボクセルである。図5に表すように、移動物体Mの重心位置Mgを中心として半径Lの円周上に複数個の移動候補位置Pcを等間隔に設置する。なお、本実施形態では、移動物体Mの周囲の位置に5°おきに72個の移動候補位置Pcを設置することとする。   When the process of calculating the target flight altitude is completed by the target flight altitude calculating means 734, the movement candidate position setting means 731 performs a process of setting a plurality of movement candidate positions at positions around the moving object. In the present embodiment, the movement candidate position is a circular position centered on the moving object M and having a radius of the separation distance 83 (= L) stored in the storage unit 8, and the target flight altitude calculation means 734 The calculated target flight altitude (= H + D) is set at equal intervals. FIG. 5 is an explanatory diagram for setting the movement candidate position, and is a view when a part of the flight space displayed by the voxel is looked down from directly above. In the figure, a black voxel represented by reference character Bo is an occupied voxel, a voxel painted by parallel oblique lines (hatching) represented by reference symbol Bn is a neighboring voxel, and a white voxel represented by reference symbol Bf is It is a free voxel. As shown in FIG. 5, a plurality of movement candidate positions Pc are arranged at equal intervals on the circumference of the radius L around the center of gravity position Mg of the moving object M. In the present embodiment, 72 movement candidate positions Pc are set at positions around the moving object M every 5 °.

移動候補位置設定手段731にて移動候補位置Pcの設定を終えると、移動目標位置設定手段732は設定された複数の移動候補位置Pcを評価し、その中の一つを移動目標位置として設定する移動目標位置設定処理を行う。図6は移動目標位置の設定についての説明図であり、図5と同じようにボクセルで表示した飛行空間の一部を真上から見下ろしたときの図である。移動目標位置設定処理では、まず、自律飛行ロボット1が障害物に接触することを防止するため障害物と干渉する位置にある移動候補位置Pcを除外し、また、障害物に接近するのも接触の危険性が増すことから障害物の近くに存在する移動候補位置Pcを除外する処理を行う。具体的には、図6に表すように、自由ボクセルBf以外のボクセル(占有ボクセルBo、近接ボクセルBn)と干渉する位置にある移動候補位置Pcが移動目標位置として設定されないよう、以下で説明する評価の対象から除外する。図6に表した移動候補位置Pcは、図5で表した移動候補位置Pcから近接ボクセルBnと干渉している移動候補位置Pcを除外した後のものであり、評価対象となっている移動候補位置Pcとなるものである。なお、近接ボクセルBnは移動目標位置に設定できないものの移動経路とすることはできるものとする。   When the movement candidate position setting unit 731 finishes setting the movement candidate position Pc, the movement target position setting unit 732 evaluates the plurality of set movement candidate positions Pc and sets one of them as the movement target position. A movement target position setting process is performed. FIG. 6 is an explanatory diagram for setting the movement target position, and is a view when a part of the flight space displayed by the voxel is looked down from directly above as in FIG. In the movement target position setting process, first, in order to prevent the autonomous flying robot 1 from coming into contact with an obstacle, the movement candidate position Pc at a position where it interferes with the obstacle is excluded, and it is also in contact with the obstacle. Therefore, the process of excluding the movement candidate position Pc existing near the obstacle is performed. Specifically, as illustrated in FIG. 6, the following description is made so that the movement candidate position Pc at a position that interferes with a voxel other than the free voxel Bf (occupied voxel Bo, adjacent voxel Bn) is not set as the movement target position. Exclude from evaluation. The movement candidate position Pc shown in FIG. 6 is obtained by excluding the movement candidate position Pc that interferes with the adjacent voxel Bn from the movement candidate position Pc shown in FIG. This is the position Pc. It is assumed that the proximity voxel Bn can be used as a movement path although it cannot be set as the movement target position.

次に移動目標位置設定処理では、評価対象から除外されていない各移動候補位置Pcを評価して移動目標位置を設定する処理を行う。本実施形態では、評価対象となっている各移動候補位置Pcの評価値を求め、当該評価値が最も大きい移動候補位置を移動目標位置として設定するように評価する。この際、まず、自律飛行ロボット1の現在位置から各移動候補位置までの距離が小さいほど評価値が高くなるようにする。また、前回設定した移動目標位置からの移動候補位置までの距離が小さいほど評価値が高くなるようにする。本実施形態における評価値Vを求める具体的な評価式を数1で表す。

Figure 0006029446
ここで、r=(x,y,z)は自律飛行ロボット1の現在の自己位置、Pprev=(xprev,yprev,zprev)は前回設定した移動目標位置を示し、α、β、σは距離に応じて減衰する値を調整するためのパラメータである。図6では、点線で囲んだ移動候補位置が移動目標位置Poとして設定されたことを表している。このように、移動目標位置Poが設定されると、後述するように設定された移動目標位置Poに向かうように移動経路が生成され、自律飛行ロボット1は当該移動目標位置Poに向かって移動することとなる。 Next, in the movement target position setting process, a process for setting each movement candidate position by evaluating each movement candidate position Pc not excluded from the evaluation target is performed. In the present embodiment, an evaluation value of each movement candidate position Pc that is an evaluation target is obtained, and evaluation is performed such that the movement candidate position having the largest evaluation value is set as the movement target position. At this time, first, the evaluation value is set higher as the distance from the current position of the autonomous flying robot 1 to each movement candidate position is smaller. Further, the evaluation value is set higher as the distance from the previously set movement target position to the movement candidate position is smaller. A specific evaluation formula for obtaining the evaluation value V in the present embodiment is expressed by Equation 1.
Figure 0006029446
Here, r = (x, y, z) represents the current self-position of the autonomous flying robot 1, P prev = (x prev , y prev , z prev ) represents the previously set movement target position, and α, β, σ is a parameter for adjusting a value that attenuates according to the distance. FIG. 6 shows that the movement candidate position surrounded by the dotted line is set as the movement target position Po. Thus, when the movement target position Po is set, a movement path is generated so as to go to the movement target position Po set as described later, and the autonomous flying robot 1 moves toward the movement target position Po. It will be.

移動経路生成手段は、記憶部に記憶されたボクセル情報と、移動目標位置設定手段にて算出した移動目標位置と、位置推定手段にて算出した自己位置とを用いて自律飛行ロボットの移動経路を算出する移動経路生成処理を行う。具体的には、経路生成処理では、まず、記憶部からボクセル情報82を読出し、分割した移動可能な空間である自由ボクセルBf及び近接ボクセルBnの各ボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしてグラフ構造を生成する。図7はグラフ構造を説明する図であり、飛行空間における移動可能なボクセル(自由ボクセルBf又は近接ボクセルBn)の一部(27個)を切り欠いたものである。図7において符号Bで表す個々の立方体は自由ボクセルBf又は近接ボクセルBnを表すものである。また、これらのボクセルBの中心にある黒又はハッチングにて塗りつぶした球はノードであり、ノード間を連結する点線で表示する線分はエッジである。このようにボクセル情報82に基づいて全ての移動可能なボクセルについてグラフ構造を生成した後、自律飛行ロボット1が存在しているボクセルのノードから移動目標位置Poが存在しているボクセルのノードまでの移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路を探索する。この際、ボクセル情報82として記憶されたボクセルコストをA*経路探索法における移動コストとして利用する。経路探索手段73で生成された移動経路のデータは、経由点(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。 The movement path generation means uses the voxel information stored in the storage unit, the movement target position calculated by the movement target position setting means, and the self position calculated by the position estimation means to determine the movement path of the autonomous flying robot. The movement route generation process to calculate is performed. Specifically, in the route generation process, first, the voxel information 82 is read from the storage unit, and the center of each voxel of the free voxel Bf and the neighboring voxel Bn, which is the divided movable space, is set as a node and adjacent to the node. A graph structure is generated with a line segment connecting nodes as an edge. FIG. 7 is a diagram for explaining the graph structure, in which a part (27) of movable voxels (free voxels Bf or adjacent voxels Bn) in the flight space are cut out. In FIG. 7, each cube represented by the symbol B represents a free voxel Bf or a neighboring voxel Bn. Further, a sphere filled with black or hatching at the center of these voxels B is a node, and a line segment displayed with a dotted line connecting the nodes is an edge. After generating the graph structure for all movable voxels based on the voxel information 82 in this way, from the voxel node where the autonomous flying robot 1 exists to the voxel node where the movement target position Po exists. Generate a travel route. Although various route generation methods can be applied to the generation method of the movement route, in the present embodiment, the movement route is searched using the A * (Aster) route search method. At this time, the voxel cost stored as the voxel information 82 is used as a movement cost in the A * route search method. Data of the generated moving route by the route searching means 73 is a set data of the transit point (x, y, z), the information is temporarily stored in the storage unit 8.

飛行制御手段74は、経路探索手段73にて算出した移動経路情報と位置推定手段71にて推定した自己位置と速度推定手段72で推定した飛行速度とを用いて、各時刻での飛行制御値である速度指令値を求め、当該速度指令値に基づいてモータ6を制御し、ロータ2の回転数を制御することにより、自律飛行ロボット1が経路探索手段73で算出した移動経路に沿って飛行させる経路追従制御処理を行う。   The flight control means 74 uses the travel route information calculated by the route search means 73, the self-position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72, and the flight control value at each time. The autonomous flying robot 1 flies along the movement route calculated by the route searching means 73 by obtaining the velocity command value, controlling the motor 6 based on the velocity command value, and controlling the rotation speed of the rotor 2. Route tracking control processing is performed.

経路追従制御処理では、まず、各時刻での自律飛行ロボットが目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図8はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、飛行制御手段74は、経路探索手段73で生成された移動経路を記憶部8から読出し、自律飛行ロボットが現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、飛行制御手段は、求めた直線Wと自律飛行ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律飛行ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律飛行ロボット1は移動経路に沿って飛行していくことになる。   In the route follow-up control process, first, a process of calculating the nearest position (hereinafter referred to as “local target”) to be targeted by the autonomous flying robot at each time is performed. FIG. 8 is a diagram for explaining the calculation of the local target. In calculating the local target, the flight control means 74 reads the movement route generated by the route search means 73 from the storage unit 8, and the waypoint Wp1 that the autonomous flying robot is aiming at at the current time and the waypoint that has passed the previous time. A straight line W connecting two points with Wp0 is obtained. Then, the flight control means calculates intersections Lp ′ and Lp between the obtained straight line W and the sphere S centered on the self-position of the autonomous flying robot 1, and uses the intersection Lp close to the target via point Wp1 as a local target. Ask. In this way, by performing flight control so that the autonomous flying robot 1 moves toward the local target at each time, the local target always moves on the moving path toward the moving target position Po. Will fly along the path of travel.

次に、経路追従制御処理では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角の各方向毎に速度指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような速度指令値を求める。具体的には、XYZ軸方向の速度指令値u=(ux,uy,uz)は、位置推定手段で求めた自己位置r=(x,y,z)と速度推定手段で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各速度指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、速度指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の速度指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律飛行ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vψの式のようなPD制御により求める。なお、本実施形態では、目標角度ψ'を移動物体Mの方向、すなわち、移動物体位置の方向を向く角度とした。 Next, in the path following control process, the speed command values u x , u y , u z , u ψ are calculated for each of the X, Y, Z, and yaw angles so as to fly toward the calculated local target. I do. At this time, a speed command value is determined so that the difference between the current self position and the position of the local target is small. Specifically, the speed command value u = (u x , u y , u z ) in the XYZ direction is estimated by the self position r = (x, y, z) obtained by the position estimation unit and the speed estimation unit. Using velocity v = (v x , v y , v z ), it is obtained by PID control. When each speed command value in the XYZ-axis directions is u = (u x , u y , u z ) and the local target is r ′ = (x, y, z), the speed command value is u = K p (r '-R) + K d · v + K i · e is calculated. Here, K p , K d , and K i are gains of PID control, respectively, and e = (e x , e y , e z ) is an integrated value of errors. On the other hand, the speed command value u ψ in the yaw angle direction includes the target angle of ψ ′, the attitude (angle) of the autonomous flying robot 1 estimated by the position estimating means 71, and the angular velocity estimated by the speed estimating means 72 of v yaw. When obtained by the PD control as equation u ψ = K p (ψ'- ψ) + K d · v ψ. In the present embodiment, the target angle ψ ′ is an angle that faces the direction of the moving object M, that is, the direction of the moving object position.

このように、制御部7は、上述した位置推定手段71、速度推定手段72、経路探索手段73、飛行制御手段74における各処理を逐次繰り返す。これにより、本実施形態の自律飛行ロボット1は、移動物体Mと離間距離の位置に対して移動目標位置を逐次更新し、その都度移動経路についても逐次更新していくことによって、当該移動物体と所定の離間距離を保ちつつ、かつ、移動物体Mを適切に撮像できる飛行高度にて追従飛行することができる。   In this manner, the control unit 7 sequentially repeats the processes in the position estimation unit 71, speed estimation unit 72, route search unit 73, and flight control unit 74 described above. As a result, the autonomous flying robot 1 of the present embodiment sequentially updates the movement target position with respect to the position of the moving object M and the separation distance, and sequentially updates the movement route each time. The follow-up flight can be performed at a flight altitude at which the moving object M can be appropriately imaged while maintaining a predetermined separation distance.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、特徴位置85として移動物体の全高における位置割合を記憶部8に記憶し、当該位置割合と推定した移動物体Mの高さとを用いて特徴部位の高さHを推定している。しかし、これに限らず、特徴位置85として所定の固定値として記憶しておき(例えば1.6m)、移動物体Mの高さを推定することなく当該固定値を特徴部位の高さHとして利用してもよい。これにより、例えば、侵入者等の身長を考慮せずに目標飛行高度を算出するため、移動物体の特徴部位を撮影する精度が低下するものの、簡単な処理で目標飛行高度を算出することができる。   In the above embodiment, the position ratio of the moving object at the total height is stored in the storage unit 8 as the feature position 85, and the height H of the feature part is estimated using the position ratio and the estimated height of the moving object M. . However, the present invention is not limited to this, and the feature position 85 is stored as a predetermined fixed value (for example, 1.6 m), and the fixed value is used as the height H of the feature part without estimating the height of the moving object M. May be. As a result, for example, the target flight altitude is calculated without considering the height of an intruder or the like, so that the target flight altitude can be calculated with simple processing, although the accuracy of capturing the characteristic part of the moving object is reduced. .

上記実施形態では、移動目標位置設定手段732にて各移動候補位置を評価する際、自律飛行ロボット1の現在位置から各移動候補位置Pcまでの距離と、前回設定した移動目標位置からの移動候補位置Pcまでの距離とを用いて評価した。しかし、これに限らず、移動物体Mの移動方向から当該移動物体Mの正面方向を推定し、当該正面方向に位置する移動候補位置Pcであるほど評価値Vが高くなるようにし、当該移動候補位置Pcが移動目標位置に設定され易いように評価してもよい。図9に当該実施形態における移動目標位置の設定について説明する図を表す。図9において符号M0が時刻tにおける移動物体の位置であり、符号M1が時刻t+1における移動物体の位置である。この場合、移動物体Mの移動方向は符号mvで表す方向となる。そのため、当該方向を移動物体の正面方向と推定する。そして、当該正面方向を0°としたとき、±30°の範囲内にある移動候補位置Pc(図9において白丸で表した移動候補位置)についての評価値が高くなるように、数1で表した式によって求めた評価値Vに対して重み係数を乗じて、新たな評価値Vを算出する。この際、正面方向である0°に近い移動候補位置であるほど大きい値の重み係数を乗じるとよい。このようにして求めた新たな評価値Vを用いて移動目標位置を設定することにより、各移動候補位置Pcの中から移動物体Mの正面方向に位置する移動候補位置Pcが移動目標位置として設定され易くなる。したがって、自律飛行ロボット1は移動物体Mの正面方向に位置し易くなるため、移動物体Mの正面の撮像画像(例えば顔画像)を取得し易くすることができ、証拠能力の高い撮像画像を取得しながら移動物体Mに追従飛行することができる。なお、移動物体Mの正面方向を推定するのに、上記のような移動物体Mの移動方向から推定する方法に限らず、撮像部3にて取得した撮像画像から移動物体Mの向きを推定して正面方向を推定してもよい。例えば、移動物体Mが人物である場合は、特開2006−146551号公報や特開2007−229814号公報に開示されている従来技術を用いて顔の向きを推定し、当該方向を正面方向と推定してもよい。あるいは、特開2008−234404号公報に開示されている従来技術を用いて、認識した関節位置に基づき移動物体Mの向きを推定してもよい。   In the above embodiment, when each movement candidate position is evaluated by the movement target position setting means 732, the distance from the current position of the autonomous flying robot 1 to each movement candidate position Pc and the movement candidate from the previously set movement target position. Evaluation was made using the distance to the position Pc. However, the present invention is not limited to this, the front direction of the moving object M is estimated from the moving direction of the moving object M, and the evaluation value V increases as the movement candidate position Pc is located in the front direction. You may evaluate so that the position Pc may be easily set as a movement target position. FIG. 9 is a diagram illustrating setting of the movement target position in the embodiment. In FIG. 9, the symbol M0 is the position of the moving object at time t, and the symbol M1 is the position of the moving object at time t + 1. In this case, the moving direction of the moving object M is the direction represented by the symbol mv. Therefore, the direction is estimated as the front direction of the moving object. Then, when the front direction is 0 °, it is expressed by Equation 1 so that the evaluation value for the movement candidate position Pc (movement candidate position represented by a white circle in FIG. 9) within the range of ± 30 ° is high. A new evaluation value V is calculated by multiplying the evaluation value V obtained by the above equation by a weighting coefficient. At this time, it is preferable to multiply the weighting coefficient having a larger value as the movement candidate position is closer to 0 ° which is the front direction. By setting the movement target position using the new evaluation value V thus obtained, the movement candidate position Pc located in the front direction of the moving object M is set as the movement target position from among the movement candidate positions Pc. It becomes easy to be done. Therefore, since the autonomous flying robot 1 is easily positioned in the front direction of the moving object M, it is possible to easily acquire a captured image (for example, a face image) of the front of the moving object M, and acquire a captured image with high evidence ability. While following the moving object M, it is possible to fly. Note that the front direction of the moving object M is not limited to the method of estimating from the moving direction of the moving object M as described above, but the direction of the moving object M is estimated from the captured image acquired by the imaging unit 3. The front direction may be estimated. For example, when the moving object M is a person, the direction of the face is estimated using conventional techniques disclosed in Japanese Patent Application Laid-Open No. 2006-146551 and Japanese Patent Application Laid-Open No. 2007-229814, and the direction is defined as the front direction. It may be estimated. Or you may estimate the direction of the moving object M based on the recognized joint position using the prior art currently disclosed by Unexamined-Japanese-Patent No. 2008-234404.

上記実施形態では、飛行制御手段74にて速度指令値を算出するために、速度推定手段72にて自己速度を算出している。しかし、これに限らず、速度推定手段72を省略して自己速度を算出せずに速度指令値を算出してもよい。この場合、移動物体Mへの追従性能が劣るもの簡易的な処理で追従飛行することが可能となる。また、上記実施形態では、速度推定手段72にて自己位置に基づいて自己速度を算出している。しかし、これに限らず、IMU(Inertial Measurement Unit:慣性計測ユニット)などのセンサを利用したり、自律飛行ロボット1の真下方向を撮像するカメラを設置し、カメラからの撮像画像に基づいて既知のオプティカルフロー法を用いて自己速度を算出してもよい。
In the above embodiment, the speed estimation means 72 calculates the self-speed so that the flight control means 74 calculates the speed command value. However, the present invention is not limited to this, and the speed command value may be calculated without the speed estimation means 72 and without calculating the self speed. In this case, it is possible to follow the flight by a simple process that follow-up performance of the mobile object M is poor. In the above embodiment, the speed estimation unit 72 calculates the self speed based on the self position. However, the present invention is not limited to this. A sensor that uses a sensor such as an IMU (Internal Measurement Unit) or a camera that captures an image directly below the autonomous flying robot 1 is installed, and is known based on an image captured from the camera. The self velocity may be calculated using an optical flow method.

上記実施形態では、距離検出センサ4としてレーザスキャナを用いて当該レーザセンサの出力から位置推定手段71にて自己位置を推定している。しかし、これに限らず、レーザスキャナの代わりとしてGPS、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の従来技術により自己位置を推定してもよい。   In the above embodiment, the position detection unit 71 estimates the self position from the output of the laser sensor using a laser scanner as the distance detection sensor 4. However, the present invention is not limited to this, and the self-position may be estimated by a known conventional technique using another sensor such as a GPS, a gyro sensor, an electronic compass, and an atmospheric pressure sensor instead of the laser scanner.

上記実施形態では、撮像部3で取得した撮像画像を画像解析することにより、移動物体位置を推定している。しかし、これに限らず、撮像部3に別途距離画像センサを搭載して、当該距離画像センサから取得した距離画像を用いて、既知の移動物体抽出技術により移動物体を抽出して、抽出した移動物体と自律飛行ロボット1との距離値から移動物体位置を推定してもよい。また、距離検出センサ4として搭載したレーザスキャナを用いて移動物体位置を推定してもよい。また、別途地面や壁面等に設置した固定型のレーザスキャナを用いて移動物体位置を検知し、通信部9を介して自律飛行ロボット1に対して移動物体位置を通知してもよい。   In the above-described embodiment, the moving object position is estimated by analyzing the captured image acquired by the imaging unit 3. However, the present invention is not limited to this, and a distance image sensor is separately mounted on the imaging unit 3, a moving object is extracted by a known moving object extraction technique using the distance image acquired from the distance image sensor, and extracted movement The moving object position may be estimated from the distance value between the object and the autonomous flying robot 1. Alternatively, the moving object position may be estimated using a laser scanner mounted as the distance detection sensor 4. Alternatively, a moving object position may be detected using a fixed laser scanner separately installed on the ground or a wall surface, and the moving object position may be notified to the autonomous flying robot 1 via the communication unit 9.

上記実施形態では、制御部7において位置推定処理(自己位置推定処理、移動物体位置推定処理)、速度推定処理、経路探索処理、経路追従制御処理の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律飛行ロボット1は、距離検出センサ4のレーザスキャナの出力及び撮像部3で取得した撮像画像を通信部9を介して無線通信により当該PCに送信する。そして、PCは、位置推定処理、速度推定処理、経路探索処理、経路追従制御処理を実施し、経路追従制御処理にて求めた速度指令値を無線通信により自律飛行ロボット1に送信する。そして、自律飛行ロボット1は、通信部9を介して受信した速度指令値に基づいてモータ6の回転数を制御することにより、目的の位置に飛行する。このように、上記の一連の処理を外部PCを用いて分担することにより、自律飛行ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。   In the above embodiment, the control unit 7 performs a series of processing of position estimation processing (self-position estimation processing, moving object position estimation processing), speed estimation processing, route search processing, and route tracking control processing. However, the present invention is not limited to this, and a control PC (not shown) may be prepared and the PC may perform a series of these processes. That is, the autonomous flying robot 1 transmits the output of the laser scanner of the distance detection sensor 4 and the captured image acquired by the imaging unit 3 to the PC by wireless communication via the communication unit 9. The PC performs position estimation processing, speed estimation processing, route search processing, and route tracking control processing, and transmits the speed command value obtained in the route tracking control processing to the autonomous flying robot 1 by wireless communication. Then, the autonomous flying robot 1 flies to a target position by controlling the number of revolutions of the motor 6 based on the speed command value received via the communication unit 9. As described above, by sharing the above-described series of processes using the external PC, it is possible to reduce the CPU processing load of the autonomous flying robot 1 and to suppress the battery consumption.

上記実施形態では、撮像部3の設置角度(撮像方向である俯角θ)を設置時の位置のまま固定であるとして、撮像条件情報84も一定値であることとしている。しかし、これに限らず、撮像部3の撮像方向を自由に変更できるカメラ制御装置を設置することにより、撮像部3の撮像方向を制御できるようにしてもよい。この場合、カメラ制御装置から撮像方向に関する情報を取得して記憶部8の撮像条件情報84を更新するものとする。   In the above embodiment, the imaging condition information 84 is also a constant value, assuming that the installation angle of the imaging unit 3 (the depression angle θ that is the imaging direction) is fixed at the installation position. However, the present invention is not limited to this, and a camera control device that can freely change the imaging direction of the imaging unit 3 may be installed to control the imaging direction of the imaging unit 3. In this case, information on the imaging direction is acquired from the camera control device, and the imaging condition information 84 in the storage unit 8 is updated.

1・・・自律飛行ロボット
2・・・ロータ
3・・・撮像部
4・・・距離検出センサ
5・・・ミラー
6・・・モータ
7・・・制御部
8・・・記憶部
81・・・2Dポイント情報
82・・・ボクセル情報
83・・・離間距離
84・・・撮像条件情報
85・・・特徴位置
86・・・各種パラメータ
71・・・位置推定手段
72・・・速度推定手段
73・・・経路探索手段
731・・・移動候補位置設定手段
732・・・移動目標位置設定手段
733・・・移動経路生成手段
734・・・目標飛行高度算出手段
74・・・飛行制御手段
9・・・通信部
M・・・移動物体
Mg・・・移動物体の重心
G・・・地面
Bo・・・占有ボクセル
Bn・・・近接ボクセル
Bf・・・自由ボクセル
Pc・・・移動候補位置
Po・・・移動目標位置

DESCRIPTION OF SYMBOLS 1 ... Autonomous flight robot 2 ... Rotor 3 ... Imaging part 4 ... Distance detection sensor 5 ... Mirror 6 ... Motor 7 ... Control part 8 ... Memory | storage part 81 ... 2D point information 82 ... voxel information 83 ... separation distance 84 ... imaging condition information 85 ... feature position 86 ... various parameters 71 ... position estimation means 72 ... speed estimation means 73 ... Route search means 731 ... Movement candidate position setting means 732 ... Movement target position setting means 733 ... Movement route generation means 734 ... Target flight altitude calculation means 74 ... Flight control means 9.・ ・ Communication unit M ・ ・ ・ moving object Mg ・ ・ ・ center of gravity of moving object G ・ ・ ・ ground Bo ・ ・ ・ occupied voxel Bn ・ ・ ・ proximity voxel Bf ・ ・ ・ free voxel Pc ・ ・ ・ moving candidate position Po ・..Moving target position

Claims (3)

移動物体と所定の離間距離を保って追従飛行して該移動物体を撮像部にて撮像する自律飛行ロボットであって、
前記撮像部の視野を示す撮像条件情報と、前記移動物体からの水平面における離間距離と、前記移動物体の特徴部位の高さ位置を示す特徴位置とを記憶した記憶部と、
前記移動物体の移動物体位置と自律飛行ロボットの自己位置及び姿勢とを推定する処理を行う位置推定手段と、
前記自律飛行ロボットの移動経路を算出する処理を行う経路探索手段と、
前記移動経路に沿って移動するよう制御し、かつ、前記撮像部が前記移動物体位置の方向を向くよう前記姿勢を制御する処理を行う飛行制御手段と、を有し、前記各処理を逐次繰り返すことによって追従飛行するものであって、
前記経路探索手段は、
前記離間距離と前記撮像条件情報と前記特徴位置とに応じて前記移動物体の特徴部位を撮像できる高度である目標飛行高度を算出する目標飛行高度算出手段と、
該目標飛行高度の位置であって前記移動物体位置から前記離間距離だけ離れた位置に移動目標位置を設定する移動目標位置設定手段と、
前記自己位置から該移動目標位置へ移動するよう前記移動経路を算出する移動経路算出手段と、
を具備することを特徴とする自律飛行ロボット。
An autonomous flying robot that follows a moving object while keeping a predetermined separation distance and images the moving object with an imaging unit,
A storage unit that stores imaging condition information indicating a field of view of the imaging unit, a separation distance on a horizontal plane from the moving object, and a feature position indicating a height position of a feature part of the moving object;
Position estimating means for performing processing for estimating the moving object position of the moving object and the self-position and posture of the autonomous flying robot;
Route search means for performing a process of calculating a movement route of the autonomous flying robot;
Flight control means for controlling to move along the moving path and controlling the posture so that the imaging unit faces the direction of the moving object position, and sequentially repeats the respective processes. It is a follow-up flight by
The route search means includes
A target flight altitude calculating means for calculating a target flight altitude that is an altitude at which a characteristic part of the moving object can be imaged according to the separation distance, the imaging condition information, and the characteristic position;
A movement target position setting means for setting a moving target position in a position spaced the distance from the moving object position an the target flying height of the position,
A movement path calculation means for calculating the movement path so as to move from the self position to the movement target position;
An autonomous flying robot characterized by comprising:
前記目標飛行高度算出手段は、前記撮像部が撮像した撮像画像から前記移動物体の画像領域を抽出し、該画像領域と前記撮像条件情報と自己位置情報とを用いて前記移動物体の高さを推定し、該高さから前記特徴位置を推定して前記記憶部に記憶する請求項1に記載の自律飛行ロボット。 The target flight altitude calculating means extracts an image area of the moving object from a captured image captured by the imaging unit , and calculates the height of the moving object using the image area, the imaging condition information, and the self-position information. The autonomous flying robot according to claim 1, wherein the autonomous flying robot estimates and stores the characteristic position from the height in the storage unit. 前記経路探索手段は、前記移動物体位置から前記離間距離だけ離れた周囲の位置に複数の移動候補位置を設定する移動候補位置設定手段を更に有し、
前記移動目標位置設定手段は、前記各移動候補位置を評価して該移動候補位置のうちの一つを移動目標位置に設定するものであって、前記移動物体の正面方向を推定し、該移動候補位置のうち該正面方向に位置する移動候補位置が移動目標位置に設定され易いよう評価する請求項1又は請求項2に記載の自律飛行ロボット。

The route search means further includes movement candidate position setting means for setting a plurality of movement candidate positions at peripheral positions separated from the moving object position by the separation distance,
The movement target position setting means evaluates each movement candidate position and sets one of the movement candidate positions as a movement target position, estimates the front direction of the moving object, and moves the movement The autonomous flying robot according to claim 1, wherein the candidate flight position is evaluated such that a movement candidate position located in the front direction is easily set as a movement target position.

JP2012272748A 2012-12-13 2012-12-13 Autonomous flying robot Active JP6029446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012272748A JP6029446B2 (en) 2012-12-13 2012-12-13 Autonomous flying robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012272748A JP6029446B2 (en) 2012-12-13 2012-12-13 Autonomous flying robot

Publications (2)

Publication Number Publication Date
JP2014119828A JP2014119828A (en) 2014-06-30
JP6029446B2 true JP6029446B2 (en) 2016-11-24

Family

ID=51174639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012272748A Active JP6029446B2 (en) 2012-12-13 2012-12-13 Autonomous flying robot

Country Status (1)

Country Link
JP (1) JP6029446B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200096403A (en) * 2019-02-04 2020-08-12 미츠비시 히타치 파워 시스템즈 가부시키가이샤 Metal powder producing apparatus and gas jet device for same
US11402855B2 (en) 2017-07-21 2022-08-02 Nec Corporation Processing device, drive control device, data processing method, and storage medium for attitude control of moving body based on wind conditions

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486024B2 (en) * 2014-07-02 2019-03-20 三菱重工業株式会社 Indoor monitoring system and method for structure
WO2016065625A1 (en) 2014-10-31 2016-05-06 SZ DJI Technology Co., Ltd. Systems and methods for walking pets
KR101543542B1 (en) * 2014-11-06 2015-08-10 김경숙 Intelligent surveillance system and method of monitoring using the same
JP6470024B2 (en) * 2014-11-27 2019-02-13 みこらった株式会社 Levitating platform
JP6482857B2 (en) * 2014-12-22 2019-03-13 セコム株式会社 Monitoring system
WO2016143256A1 (en) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 Flying body
JP2018069744A (en) * 2015-03-12 2018-05-10 パナソニックIpマネジメント株式会社 Unmanned flight vehicle and aerial image display system
JP6578113B2 (en) * 2015-03-17 2019-09-18 セコム株式会社 Flying robot control system and flying robot
JP6509599B2 (en) * 2015-03-17 2019-05-08 セコム株式会社 Flight robot control system and flight robot
JP6469487B2 (en) * 2015-03-17 2019-02-13 セコム株式会社 Flying robot control system and flying robot
US10683086B2 (en) 2015-03-19 2020-06-16 Prodrone Co., Ltd. Unmanned rotorcraft and method for measuring circumjacent object around rotorcraft
NO339419B1 (en) * 2015-03-25 2016-12-12 FLIR Unmanned Aerial Systems AS Path-Based Flight Maneuvering System
KR101690502B1 (en) * 2015-04-07 2016-12-28 (주)코아텍 System for tracking using drone
JP6664162B2 (en) * 2015-07-31 2020-03-13 セコム株式会社 Autonomous flying robot
KR101645722B1 (en) 2015-08-19 2016-08-05 아이디어주식회사 Unmanned aerial vehicle having Automatic Tracking and Method of the same
JP6680498B2 (en) * 2015-09-28 2020-04-15 株式会社日立システムズ Autonomous flying vehicle, target tracking method
JP2017072986A (en) 2015-10-07 2017-04-13 パナソニックIpマネジメント株式会社 Autonomous flying device, control method and program of autonomous flying device
KR102560568B1 (en) * 2015-10-27 2023-07-27 주식회사 케이티 Flight path determination method, flight path managing server and system
CN108377333B (en) * 2015-11-25 2020-11-06 深圳市大疆灵眸科技有限公司 Focus following remote controller, aircraft remote controller, aerial photography focus following control system and method
US10409292B2 (en) 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
CN105487555B (en) * 2016-01-14 2018-09-28 浙江华飞智能科技有限公司 A kind of station keeping method and device of unmanned plane
JP6775981B2 (en) * 2016-03-30 2020-10-28 セコム株式会社 Surveillance system and object detection device
JP6775980B2 (en) * 2016-03-30 2020-10-28 セコム株式会社 Surveillance system and object detection device
US11905000B2 (en) 2016-03-31 2024-02-20 Nikon Corporation Flying device, electronic device, and program
JP6308238B2 (en) * 2016-04-07 2018-04-11 カシオ計算機株式会社 Flight camera device, flight camera system, terminal device, flight camera device control method and program
CN107340780A (en) * 2016-09-27 2017-11-10 广州亿航智能技术有限公司 Control method, the device and system of multi-rotor aerocraft
WO2018092283A1 (en) * 2016-11-18 2018-05-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Control apparatus, image pickup system, mobile body, control method, and program
JP6515423B2 (en) * 2016-12-28 2019-05-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
JP6347344B1 (en) * 2017-01-23 2018-06-27 中国電力株式会社 Crane stop system
JP2018124718A (en) * 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
KR20190009103A (en) 2017-07-18 2019-01-28 삼성전자주식회사 Electronic Device that is moved based on Distance to External Object and the Control Method
JP6560305B2 (en) * 2017-07-19 2019-08-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method for guiding a target object and UAV
CN107390721B (en) * 2017-07-26 2021-05-18 歌尔科技有限公司 Robot following control method and device and robot
KR102025687B1 (en) * 2017-10-31 2019-09-26 (주)메타파스 Autonomous flight system using dual GPS and method thereof
JP6390015B2 (en) * 2018-03-13 2018-09-19 株式会社プロドローン Biological search system
CN108734083B (en) * 2018-03-21 2023-04-25 北京猎户星空科技有限公司 Control method, device, equipment and storage medium of intelligent equipment
CN108447159B (en) * 2018-03-28 2020-12-18 百度在线网络技术(北京)有限公司 Face image acquisition method and device and entrance and exit management system
WO2019205070A1 (en) * 2018-04-27 2019-10-31 深圳市大疆创新科技有限公司 Method and apparatus for controlling unmanned aerial vehicle, and unmanned aerial vehicle
KR102485554B1 (en) * 2018-06-29 2023-01-05 현대오토에버 주식회사 Apparatus and method for constructing a 3d space map for route search for unmanned aerial vehicle
JP6925049B2 (en) * 2018-12-14 2021-08-25 みこらった株式会社 Aircraft, programs for air vehicle and display information provision system
JP6581283B2 (en) * 2018-12-27 2019-09-25 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
JP6779474B2 (en) * 2019-01-16 2020-11-04 みこらった株式会社 Levitation mobile stand
JP6947452B2 (en) * 2019-01-16 2021-10-13 みこらった株式会社 Floating platform and program for floating platform
US20220244726A1 (en) * 2019-07-03 2022-08-04 Sony Group Corporation Information processing apparatus, information processing method, and program
JP6733068B2 (en) * 2020-03-13 2020-07-29 楽天株式会社 Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
JP7153397B2 (en) * 2020-09-30 2022-10-17 みこらった株式会社 Floating carriages and programs for levitating carriages
EP4275101A1 (en) * 2021-01-07 2023-11-15 California Institute of Technology High-resolution camera network for ai-powered machine supervision

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3992026B2 (en) * 2004-07-09 2007-10-17 船井電機株式会社 Self-propelled robot
JP2006146551A (en) * 2004-11-19 2006-06-08 Matsushita Electric Ind Co Ltd Robot
JP4940698B2 (en) * 2006-02-27 2012-05-30 トヨタ自動車株式会社 Autonomous mobile robot
JP4715787B2 (en) * 2007-03-22 2011-07-06 トヨタ自動車株式会社 Mobile robot and robot movement control method
JP5618840B2 (en) * 2011-01-04 2014-11-05 株式会社トプコン Aircraft flight control system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11402855B2 (en) 2017-07-21 2022-08-02 Nec Corporation Processing device, drive control device, data processing method, and storage medium for attitude control of moving body based on wind conditions
KR20200096403A (en) * 2019-02-04 2020-08-12 미츠비시 히타치 파워 시스템즈 가부시키가이샤 Metal powder producing apparatus and gas jet device for same
KR102266202B1 (en) * 2019-02-04 2021-06-17 미츠비시 파워 가부시키가이샤 Metal powder producing apparatus and gas jet device for same

Also Published As

Publication number Publication date
JP2014119828A (en) 2014-06-30

Similar Documents

Publication Publication Date Title
JP6029446B2 (en) Autonomous flying robot
JP6195450B2 (en) Autonomous flying robot
JP5990453B2 (en) Autonomous mobile robot
US11592845B2 (en) Image space motion planning of an autonomous vehicle
JP6140458B2 (en) Autonomous mobile robot
JP6664162B2 (en) Autonomous flying robot
JP6599143B2 (en) Autonomous mobile robot
JP6235213B2 (en) Autonomous flying robot
JP6527726B2 (en) Autonomous mobile robot
JP6014484B2 (en) Autonomous mobile robot
JP6014485B2 (en) Autonomous flying robot
WO2016187760A1 (en) Sensor fusion using inertial and image sensors
WO2016187757A1 (en) Sensor fusion using inertial and image sensors
EP3734394A1 (en) Sensor fusion using inertial and image sensors
JP6758068B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
JP2017182692A (en) Autonomous Mobile Robot
JP6758069B2 (en) Autonomous flying robot
JP6595284B2 (en) Autonomous mobile robot
WO2020088399A1 (en) Information processing device, flight control method, and flight control system
JP2020071154A (en) Position estimation device, position estimation method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161018

R150 Certificate of patent or registration of utility model

Ref document number: 6029446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250