JP6758068B2 - Autonomous mobile robot - Google Patents
Autonomous mobile robot Download PDFInfo
- Publication number
- JP6758068B2 JP6758068B2 JP2016072710A JP2016072710A JP6758068B2 JP 6758068 B2 JP6758068 B2 JP 6758068B2 JP 2016072710 A JP2016072710 A JP 2016072710A JP 2016072710 A JP2016072710 A JP 2016072710A JP 6758068 B2 JP6758068 B2 JP 6758068B2
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- imaging
- moving object
- moving
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 97
- 238000000926 separation method Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 description 51
- 238000001514 detection method Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241000132092 Aster Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、移動空間内を自律的に移動する自律移動ロボットに関する。 The present invention relates to an autonomous mobile robot that autonomously moves in a moving space.
従来、現在位置である自己位置から所定の移動目標位置に至る移動経路を算出し、当該移動経路に沿うよう自律的に飛行可能な自律飛行ロボットが提案されている。例えば、特許文献1には、賊等の移動物体から所定の離間距離だけ離れた位置に移動目標位置を設定し、自己位置から当該移動目標位置に至る移動経路を生成し、当該移動経路に沿うよう飛行制御される自律飛行ロボットが開示されている。
Conventionally, an autonomous flight robot capable of calculating a movement path from a self-position which is a current position to a predetermined movement target position and autonomously flying along the movement path has been proposed. For example, in
上記従来技術では、移動物体をできるだけ色々な角度から撮影できるよう、移動物体から所定距離だけ離れた周囲の位置に複数の移動目標位置の候補位置(移動候補位置)を設定し、これまで移動物体を撮影できていない方向を撮影できる位置が、移動目標位置として設定されやすいように工夫されている。 In the above-mentioned prior art, a plurality of candidate positions for moving target positions (moving candidate positions) are set at surrounding positions separated by a predetermined distance from the moving object so that the moving object can be photographed from various angles as much as possible. It is devised so that the position where you can shoot in the direction where you cannot shoot is easily set as the movement target position.
ところで、複数の移動物体が監視エリアに存在しているときに、撮影された画像から監視員が監視エリアの状況把握したい場合や、これらの移動物体を短期間で画像認識したい場合など、いずれもできる限り多くの移動物体を認識可能な解像度で同時撮影することが要求される。しかしながら、上記従来技術では、単体の移動物体のみを考慮するだけで複数の移動物体が存在している場面について考慮していないため、このような要求を満たす位置に適切に移動することができなかった。 By the way, when a plurality of moving objects exist in the monitoring area, the observer wants to grasp the situation of the monitoring area from the captured image, or wants to recognize these moving objects in a short period of time. It is required to simultaneously shoot as many moving objects as possible at a recognizable resolution. However, in the above-mentioned prior art, since only a single moving object is considered and a scene in which a plurality of moving objects exist is not considered, it is not possible to appropriately move to a position satisfying such a requirement. It was.
そこで本発明は、複数の移動物体が存在する監視空間において、移動物体を認識可能な解像度でできる限り多くの移動物体を同時撮影する位置に移動できるようにすることを目的とする。 Therefore, an object of the present invention is to make it possible to move a moving object to a position where as many moving objects as possible are simultaneously photographed with a recognizable resolution in a monitoring space where a plurality of moving objects exist.
本発明の1つの態様は、移動空間内を自律移動し、撮像部により複数の移動物体の撮像画像を取得する自律移動ロボットであって、前記撮像部の視野角を記憶した記憶部と、前記各移動物体の移動物体位置を取得する移動物体位置取得手段と、前記自律移動ロボットの自己位置を推定する位置推定手段と、前記移動物体の集合であるクラスタの前記移動物体位置を包含する最小の円のサイズが前記視野角に応じた上限サイズ以下となるようクラスタリングし、所定基準に従って該クラスタの中から撮像対象とする撮像クラスタを選択し、該撮像クラスタのクラスタサイズと前記視野角とに基づいて前記撮像部の撮像範囲内に該撮像クラスタが含まれる移動目標位置を設定し、前記自己位置から当該移動目標位置に至る移動経路を求める経路探索手段と、前記移動経路に沿って移動するよう制御する移動制御手段と、を有することを特徴とする自律移動ロボットである。
One aspect of the present invention is an autonomous moving robot that autonomously moves in a moving space and acquires captured images of a plurality of moving objects by an imaging unit, the storage unit that stores the viewing angle of the imaging unit, and the storage unit. The minimum including the moving object position acquisition means for acquiring the moving object position of each moving object, the position estimating means for estimating the self-position of the autonomous moving robot, and the moving object position of the cluster which is a set of the moving objects. Clustering is performed so that the size of the circle is equal to or less than the upper limit size according to the viewing angle, an imaging cluster to be imaged is selected from the clusters according to a predetermined standard, and based on the cluster size of the imaging cluster and the viewing angle. A movement target position including the imaging cluster is set within the imaging range of the imaging unit, and a route search means for finding a movement route from the self-position to the movement target position and moving along the movement route. It is an autonomous mobile robot characterized by having a movement control means for controlling.
ここで、前記記憶部は、前記撮像部の解像度を更に記憶し、前記経路探索手段は、前記視野角及び前記解像度に応じた前記上限サイズを設定することが好適である。 Here, it is preferable that the storage unit further stores the resolution of the imaging unit, and the path search means sets the viewing angle and the upper limit size according to the resolution.
また、前記経路探索手段は、前記撮像クラスタのクラスタサイズ、前記視野角及び前記解像度に応じた前記撮像クラスタからの離間距離範囲を求め、該撮像クラスタから当該離間距離範囲内に前記移動目標位置を設定することが好適である。 Further, the route search means obtains a distance range from the imaging cluster according to the cluster size, the viewing angle, and the resolution of the imaging cluster, and sets the moving target position within the separation distance range from the imaging cluster. It is preferable to set.
また、前記経路探索手段は、予め定めた離間距離及び前記視野角に応じた撮像可能範囲を前記上限サイズに設定して前記複数の移動物体をクラスタリングすることが好適である。 Further, it is preferable that the route search means clusters the plurality of moving objects by setting the imaging range according to the predetermined separation distance and the viewing angle to the upper limit size.
また、前記経路探索手段は、前記複数の移動物体の中から優先撮影対象を選択し、該優先撮影対象に選択された移動物体が含まれる前記クラスタを撮像クラスタとして選択することが好適である。 Further, it is preferable that the route search means selects a priority imaging target from the plurality of moving objects, and selects the cluster including the moving object selected as the priority imaging target as an imaging cluster.
本発明によれば、複数の移動物体が存在する監視空間において、できる限り多くの移動物体を同時撮影する位置に移動することができる。 According to the present invention, in a monitoring space where a plurality of moving objects exist, it is possible to move as many moving objects as possible to a position where they are simultaneously photographed.
本発明の実施の形態における自律飛行ロボット1は、図1の概観図に示すように、クアッドロータ型の小型無人ヘリコプタである。なお、本発明の適用範囲は、クアッドロータ型の小型無人ヘリコプタに限定されるものではなく、シングルロータ型の小型無人ヘリコプタや、自律移動する走行型のロボットについても同様に適用することができる。
The
自律飛行ロボット1は、図2のシステム構成図に示すように、外部の警備センタ100や管理装置102と通信し、移動空間内に存在する複数の移動物体Mを自律移動して撮像するように構成されている。移動物体Mは、例えば、監視領域内に侵入した人物(賊等)や車両等である。
As shown in the system configuration diagram of FIG. 2, the
警備センタ100と管理装置102とはインターネット等の情報通信網110を介して情報伝達可能に接続される。また、自律飛行ロボット1と管理装置102は、無線通信等によって情報伝達可能に接続される。警備センタ100は、管理装置102を介して自律飛行ロボット1と通信を行い、自律飛行ロボット1によって撮像された移動物体Mの撮像画像を受信する。警備センタ100は、撮像画像に対して画像処理を行い、警備センタ100にて異常監視している管理者等(図示しない)に警告を発するような機能を備えていてもよい。
The
管理装置102は、地面や壁面等に設置された固定型の移動物体検出センサ104(104a,104b・・・)を備え、各移動物体Mの位置を検知する。移動物体検出センサ104は、例えば、レーザセンサとすることができる。レーザセンサは、一定の角度サンプル間隔の角度毎にレーザを二次元的にスキャンすることによって、地面(又は床面)から一定の高さの水平面における検知範囲内に存在する物体(障害物)との距離情報を極座標値として取得する。レーザセンサは、放射状にレーザ光である探査信号を走査し、物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、レーザセンサの設置位置の座標及び探査信号を送信した方向と算出した距離から当該物体の位置の極座標値を求め、当該極座標値から3次元の直交座標値(Xt,Yt,Zt)を求める。管理装置102は、移動物体検出センサ104によって求められた各移動物体Mの位置を、各移動物体Mの識別子である移動物体IDを付与して自律飛行ロボット1へ送信する。自律飛行ロボット1は、各移動物体Mの位置を受信すると、その位置に基づいて自らの移動経路を算出し、当該移動経路に沿って移動する。なお、管理装置102は、レーザセンサの検知範囲が重複する領域に存在する移動物体Mの同一性を検証することで複数のレーザセンサの検知範囲に渡る移動物体Mの追跡を行う。すなわち、レーザセンサ104aの検知範囲に存在する移動物体Mがレーザセンサ104bの検知範囲に移動したとしても、管理装置102は、当該移動物体Mが同一の物体であると判定することができる。
The
以下、図1の概観図及び図3の機能ブロック図を参照して、自律飛行ロボット1の構成及び機能について説明する。
Hereinafter, the configuration and function of the
自律飛行ロボット1は、図1に示すように、4枚のロータ(プロペラ)2(2a〜2d)を一平面上に有する。各ロータ2は、バッテリ(二次電池:図示しない)により駆動されるモータ4(4a〜4d)を用いて回転させられる。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、自律飛行ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、各ロータ2の回転数(fa〜fd)を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。例えば、機体をヨー方向に回転させたいときは、前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与えればよい。
As shown in FIG. 1, the
撮像部3は、例えばレンズなどの光学系および所定画素数(例えば640×480画素からなる解像度)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、移動空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施の形態では、撮像部3は、その光軸が自律飛行ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を視野角φ(画角)において撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して管理装置102に送信されたりする。
The
距離検出センサ5は、自律飛行ロボット1の周囲に存在する障害物と自律飛行ロボット1との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施の形態では、距離検出センサ5としてマイクロ波センサを備える。マイクロ波センサは、空間にマイクロ波を放出し、その反射波を検知することによって、自律飛行ロボット1の周囲にある物体を探知し、その物体までの距離を求める。距離検出センサ5は、例えば、自律飛行ロボット1の前方に向けて設け、移動物体Mまでの距離を測定するために用いることができる。また、距離検出センサ5は、例えば、自律飛行ロボット1の下部に下向きに設け、地面との距離(高度)を測定するために用いることもできる。また、距離検出センサ5は、例えば、撮像部3の光軸方向に向けて設け、撮像部3の撮像対象物である移動物体Mまでの距離を測定するために用いることができる。
The
位置検出センサ6は、自律飛行ロボット1の現在位置を取得するためのセンサである。位置検出センサ6は、例えば、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する。位置検出センサ6は、複数の航法衛星から送信される航法信号を受信して制御部7へ入力する。なお、位置検出センサ6は、レーザスキャナ、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の技術により自己位置を得るための情報を取得するものとしてもよい。
The position detection sensor 6 is a sensor for acquiring the current position of the
通信部9は管理装置102との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施の形態では、撮像部3によって取得した撮像画像を通信部9により管理装置102に送信し、当該撮像画像を管理装置102から警備センタ100に送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。また、通信部9は、管理装置102から各移動物体Mの位置(座標:Xt,Yt,Zt)を受信することにより、後述するような移動経路の設定を可能にする。すなわち、本実施の形態では通信部9が本発明の移動物体位置取得手段として機能する。
The
記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部7との間でこれらの情報を入出力する。各種データには、移動物体位置81、クラスタ情報82、ボクセル情報83、撮像条件情報84等の制御部7の各処理に用いられる情報、各センサ等の出力値及び撮像画像等が含まれる。
The
移動物体位置81は、管理装置102から受信した各移動物体Mの識別子である移動物体IDと、当該移動物体Mの位置情報(座標:Xt,Yt,Zt)とを対応付けた情報である。本実施の形態では、移動物体位置81を各移動物体Mの足元位置、すなわち移動物体Mが地面(床面)に接している位置とする。制御部7は、通信部9を介して各移動物体Mの移動物体ID及び位置を受信すると移動物体位置81として記憶部8に記憶させる。
The moving
クラスタ情報82は、移動物体Mの集合であるクラスタに関する情報であり、クラスタの識別子であるクラスタIDと、クラスタを構成する移動物体Mの移動物体IDと、クラスタの大きさを表す値であるクラスタサイズと、クラスタの移動空間における位置を表すクラスタ位置と、を対応付けた情報である。本実施の形態では、クラスタを構成する各移動物体Mの移動物体位置81を包含する最小の円を求め、当該円の半径をクラスタサイズとし、当該円の地表面における中心位置の座標(X,Y)をクラスタ位置として、後述するように経路探索手段73によって算出されるものとする。
The
ボクセル情報83は、移動空間をボクセル空間として複数のボクセルに分割して移動空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶され、また、後述するように位置推定手段71にて更新される情報である。本実施の形態では、移動空間を所定の大きさ(例えば15cm×15cm×15cm)のボクセルに等分割し、各ボクセルの識別子であるボクセルIDと、移動空間におけるボクセルの位置(三次元座標)と、ボクセル属性と、ボクセルコスト値とを対応付けてボクセル情報83として記憶する。飛行禁止エリアに相当するボクセルは、そのボクセル属性を「占有ボクセル」と定義して、自律飛行ロボット1が移動できない空間とする。なお飛行禁止エリアには、例えば建造物等の障害物に相当するエリア、飛行が許可された敷地外のエリア、飛行が許可された高度よりも高いエリアなどが挙げられる。そして、占有ボクセルの近くに存在する空間に位置するボクセルのボクセル属性を「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルのボクセル属性を「自由ボクセル」と定義する。
The
各ボクセルには、後述する経路探索手段73にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値が関連付けて登録される。ボクセルコスト値は、占有ボクセルにおいて最大値Cmaxをとり、占有ボクセルからの距離が大きくなるほど小さな値となるように設定される。例えば、あるボクセル(評価ボクセル)のボクセルコスト値は、ボクセルコスト値=Cmax × exp{−λ×R}の計算式により算出することが好適である。ここでλは実験によって求めたパラメータとし、Rは評価ボクセルに最も近い占有ボクセルからの距離とする。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とする。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と設定する。 A voxel cost value indicating the degree of occupancy is associatedly registered with each voxel so that it can be used when a movement route is generated by the route search means 73 described later. The voxel cost value takes the maximum value C max in the occupied voxel, and is set so as to become smaller as the distance from the occupied voxel increases. For example, the voxel cost value of a certain voxel (evaluation voxel) is preferably calculated by the formula of voxel cost value = C max × exp {−λ × R}. Here, λ is a parameter obtained by experiment, and R is the distance from the occupied voxel closest to the evaluation voxel. Then, a voxel having a voxel cost value equal to or higher than a predetermined threshold value is referred to as a "proximity voxel". Further, a voxel whose voxel cost value is smaller than the threshold value is set as a "free voxel", and a voxel cost value of a voxel regarded as a free voxel is set to 0.
撮像条件情報84は撮像部3の視野を表す情報であり、本実施の形態では撮像部3の視野角φ及び解像度が撮像条件情報84として記憶部8に記憶されている。すなわち、撮像条件情報84は、自律飛行ロボット1に設置した撮像部3の性能にしたがって管理者等によって適宜設定される値である。なお、視野角φを変更可能なズーム機能や、撮像する解像度を変更可能な解像度変更機能を備えた撮像部3を搭載した他の実施の形態においては、適宜現在の視野角φ及び解像度についての情報を取得し、撮像条件情報84として記憶部8に記憶しもよい。
The
制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理、速度推定処理、経路探索処理、経路追従制御を行う一連の処理として、位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74を含んでいる。 The control unit 7 is composed of a computer equipped with a CPU or the like, and has a position estimation means 71, a speed estimation means 72, and a route search means as a series of processes for performing position estimation processing, speed estimation processing, route search processing, and route tracking control. 73, movement control means 74 is included.
位置推定手段71は、位置検出センサ6の出力に基づいて、移動空間における自律飛行ロボット1の現在位置(自己位置)を推定する位置推定処理を行う。
The position estimation means 71 performs a position estimation process for estimating the current position (self-position) of the
具体的には、位置検出センサ6から得られた複数の航法衛星からの航法信号に基づいて周知技術によって推定した緯度・経度と、距離検出センサ5から得られた高度とから自己位置の座標(Xs,Ys,Zs)を計算する。さらに、電子コンパスやジャイロセンサなどの位置検出センサ6からの出力を受けて自己位置として姿勢YAWを求める。なお、自己位置の推定方法はこれに限定されるものではなく、他の方法を用いて自律飛行ロボット1の現在位置を推定してもよい。
Specifically, the coordinates of the self-position from the latitude / longitude estimated by a well-known technique based on the navigation signals from a plurality of navigation satellites obtained from the position detection sensor 6 and the altitude obtained from the distance detection sensor 5 ( X s , Y s , Z s ) are calculated. Further, the attitude YAW is obtained as the self-position by receiving the output from the position detection sensor 6 such as the electronic compass and the gyro sensor. The self-position estimation method is not limited to this, and the current position of the
位置推定手段71は、推定された自己位置(座標:Xs,Ys,Zs及び姿勢YAW)と管理装置102から受信した移動物体Mの位置(座標:Xt,Yt,Zt)を経路探索手段73へ出力する。また、位置推定手段71は、推定された自己位置を速度推定手段72及び移動制御手段74へ出力する。 The position estimating means 71 has an estimated self-position (coordinates: X s , Y s , Z s and attitude YAW) and a position of a moving object M received from the management device 102 (coordinates: X t , Y t , Z t ). Is output to the route search means 73. Further, the position estimation means 71 outputs the estimated self-position to the speed estimation means 72 and the movement control means 74.
なお、位置推定手段71は、移動物体Mの位置に基づいてボクセル情報83を更新する処理を行う。具体的には、記憶部8のボクセル情報83に基づいたボクセル空間に移動物体Mの位置を重心として予め定めた移動物体Mの大きさと略同じ大きさの円柱モデル(例えば、監視対象の移動物体Mを侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを占有ボクセルとして設定することによりボクセル情報83を更新する。後述するように、自律飛行ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように移動物体Mの位置に基づいてボクセル情報83を更新することにより、自律飛行ロボット1と移動物体Mとの接触を回避することができる。
The position estimation means 71 performs a process of updating the
速度推定手段72は、後述する移動制御手段74における移動制御で利用するため、自律飛行ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する速度推定処理を行う。本実施の形態では、位置推定手段71にて推定した自己位置(座標:Xs,Ys,Zs及び姿勢YAW)の時間変化から飛行速度を求める。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定することが好適である。この他にも、GNSSにおけるドップラー効果を利用した速度推定方法を用いてもよい。
Since the speed estimation means 72 is used for movement control in the movement control means 74, which will be described later, the speed estimation means 72 performs a speed estimation process for estimating the current flight speed (v x , v y , v z , v yaw ) of the
経路探索手段73は、位置推定手段71で推定された自己位置と、記憶部8に記憶された移動物体位置81及び各種情報とを用いて、自己位置から所定の移動目標位置に至る移動経路を算出する経路探索処理を行う。以下、本実施の形態の自律飛行ロボット1に係る経路探索手段73が実行する経路探索処理の流れの一例について、図4を参照しながら詳細に説明する。
The route search means 73 uses the self-position estimated by the position estimation means 71, the moving
経路探索処理では、まず、後述するクラスタリングにおけるクラスタの上限サイズを決定する処理を行う(ST1)。経路探索手段73は、撮像条件情報84の視野角φと解像度とに基づいて、移動物体Mを認識可能となるよう、クラスタの上限サイズを算出する。本実施の形態では、まず、解像度に基づいて移動物体Mからの最大離間距離Lmaxを求める。すなわち、解像度が高くなるほど移動物体Mから遠くに離れても当該移動物体Mを認識でき、反対に解像度が低くなるほど移動物体Mに近づかなければ当該移動物体Mを認識できないため、解像度が高くなるほど、大きくなるよう最大離間距離Lmaxを求める。最大離間距離Lmaxは、予め実験により距離と解像度との関係を求めておき、適用する解像度に応じて求めてもよい。そして、求めた最大離間距離Lmaxと視野角φとを用いて上限サイズrmaxを、rmax={Lmax×sin(φ/2)}/{sin(φ/2)+1}から求める。すなわち、図5に表すように、自律飛行ロボット1から最大離間距離Lmaxの位置に存在していると仮定した移動物体M0を、クラスタの最遠端の位置に存在する移動物体とし、当該移動物体M0の位置を最遠端位置とする円であって、視野角φで定まる撮像範囲に接する円の半径として、上限サイズrmaxを求める。なお、本実施の形態では、上限サイズを撮像部3の視野角φと解像度に基づいて算出しているが、これに限らず、予め実験により定めた固定値を設定し、当該固定値を用いてもよい。
In the route search process, first, a process of determining the upper limit size of the cluster in clustering described later is performed (ST1). The route search means 73 calculates the upper limit size of the cluster so that the moving object M can be recognized based on the viewing angle φ and the resolution of the
次に、経路探索処理では、ST1にて求めた上限サイズrmaxと、移動物体位置81とを用いて、複数の移動物体Mの組み合わせからなるクラスタを生成するクラスタリングを実行する(ST2)。本実施の形態では、既知の技術であるユークリッドクラスタリング手法を用いてクラスタリングする。この際、上限サイズrmaxが、生成されるクラスタの最大半径となるよう、ユークリッドクラスタリング距離を設定する。なお、クラスタリングの方法は従来から多数提案されており、適宜公知の方法を採用すればよい。これによって、上限サイズrmax以下の半径からなる円に含まれる位置に存在する複数の移動物体Mからなるクラスタを生成することが可能となる。経路探索手段73は、クラスタリングによってクラスタを生成すると、各クラスタの情報をクラスタ情報82として記憶部8に記憶する。図6は、移動空間の一部を真上から見下ろしたときの図であり、移動空間内に存在する移動物体M1〜M6を上限サイズrmaxによりクラスタリングした結果を表す図である。同図では、クラスタC1として移動物体M1〜M4がクラスタリングされ、クラスタC2として移動物体M5、M6がクラスタリングされている。なお、クラスタC1、C2の半径であるクラスタサイズは、上限サイズrmax以下となるようクラスタリングされているものとする。
Next, in the route search process, clustering for generating a cluster composed of a combination of a plurality of moving objects M is executed by using the upper limit size r max obtained in ST1 and the moving object position 81 (ST2). In this embodiment, clustering is performed using a known technique, the Euclidean clustering method. At this time, the Euclidean clustering distance is set so that the upper limit size r max is the maximum radius of the generated cluster. Many clustering methods have been proposed so far, and known methods may be appropriately adopted. This makes it possible to generate a cluster consisting of a plurality of moving objects M existing at positions included in a circle having a radius of the upper limit size r max or less. When the route search means 73 generates clusters by clustering, the route search means 73 stores the information of each cluster as
次に、経路探索処理では、ST2にて生成したクラスタの中から、自律飛行ロボット1の撮像対象とするクラスタである撮像クラスタを選択する処理を行う(ST3)。本実施の形態では、位置推定手段71にて求めた自己位置に最も近いクラスタを撮像クラスタとして選択する。ここでは、図6のクラスタC1を選択クラスタに設定したとして、以下では説明する。
Next, in the route search process, a process of selecting an imaging cluster, which is a cluster to be imaged by the
次に、経路探索処理では、ST3にて選択した撮像クラスタのクラスタサイズをクラスタ情報82から読み出し、当該クラスタサイズと撮像条件情報84とに基づいて撮像クラスタからの離間距離の範囲を示す離間距離範囲を求める(ST4)。ここで、離間距離とは、選択クラスタに追従飛行するにあたって、自律飛行ロボット1と撮像クラスタとの水平面における維持すべき相対距離である。本実施の形態では、図7に表すように、撮像クラスタC1のクラスタサイズをr1としたとき、当該撮像クラスタC1からの最も小さい離間距離である最小離間距離Lminを、Lmin=r1/{sin(φ/2)}により求める。すなわち、撮像部3の撮像範囲内に撮像クラスタが含まれる最も近い距離として最小離間距離Lminを求める。そして、当該最小離間距離Lminと、ST1にて求めた最大離間距離Lmaxとを用いて、撮像クラスタからの離間距離範囲を求める。
Next, in the route search process, the cluster size of the imaging cluster selected in ST3 is read from the
次に、経路探索処理では、ST4にて求めた離間距離範囲内の離間距離を設定する(ST5)。本実施の形態では、予め設定された方針に従って離間距離を選択する。例えば、移動物体Mの詳細を撮影するために、移動物体Mにできるだけ近づく方針が設定されていれば、離間距離範囲における最も小さい値である最小離間距離Lminを離間距離として設定する。一方、移動物体Mからの攻撃を回避しやすいよう、移動物体Mからできるだけ距離をとる方針が設定されていれば、離間距離範囲における最も大きい値である最大離間距離Lmaxを離間距離として設定する。この他にも、現状に応じて方針を変更してもよい。例えば、撮像クラスタを構成する移動物体Mの平均移動速度が大きいほど、離間距離範囲内における大きい離間距離として設定してもよい。いずれの場合も、ST4にて求めた離間距離範囲内の離間距離であれば、撮像部3の撮像範囲内に撮像クラスタが含まれる位置を求めることができる。
Next, in the route search process, the separation distance within the separation distance range obtained in ST4 is set (ST5). In the present embodiment, the separation distance is selected according to a preset policy. For example, if a policy of approaching the moving object M as much as possible is set in order to photograph the details of the moving object M, the minimum separation distance L min , which is the smallest value in the separation distance range, is set as the separation distance. On the other hand, if the policy of keeping the distance from the moving object M as much as possible is set so as to easily avoid the attack from the moving object M, the maximum separation distance L max , which is the largest value in the separation distance range, is set as the separation distance. .. In addition to this, the policy may be changed according to the current situation. For example, the larger the average moving speed of the moving objects M constituting the imaging cluster, the larger the separation distance may be set within the separation distance range. In either case, if the distance is within the distance range obtained in ST4, the position where the image pickup cluster is included in the image pickup range of the
次に、経路探索処理では、ST5にて設定した離間距離と、クラスタ情報82から読み出した撮像クラスタの中心位置とを用いて、撮像クラスタから離間距離だけ離れた周囲の位置に移動候補位置を設定する処理を行う(ST6)。すなわち、撮像クラスタの中心位置から離間距離だけ離れた周囲の領域に複数の移動候補位置を設定する。本実施の形態では、移動候補位置を、撮像クラスタの中心位置から、ST5にて設定した離間距離を半径とした円状の位置で、かつ、管理者等により予め定められた飛行高度(例えば3m)の領域に、それぞれ等間隔になるように設定する。
Next, in the route search process, the movement candidate position is set at a peripheral position separated from the imaging cluster by the separation distance using the separation distance set in ST5 and the center position of the imaging cluster read from the
次に、経路探索処理では、ST6にて設定した移動候補位置の其々を評価し、最も高い評価値となる移動候補位置を移動目標位置として設定する処理を行う(ST7)。この際、まず、自律飛行ロボット1が障害物に接触することを防止するため、ボクセル情報83を参照して占有ボクセル又は近接ボクセルに含まれる位置には移動目標位置を設定しないよう、最低の評価値となるようにする。また、自律飛行ロボット1の自己位置から各移動候補位置までの距離が小さいほど評価値が高くなるようにする。更に、前回設定した移動目標位置から移動候補位置までの距離が小さいほど評価値が高くなるようにする。
Next, in the route search process, each of the movement candidate positions set in ST6 is evaluated, and the movement candidate position having the highest evaluation value is set as the movement target position (ST7). At this time, first, in order to prevent the
次に、経路探索処理では、位置推定手段71で推定された自己位置と、ST7にて設定した移動目標位置とを用いて自律飛行ロボット1の移動経路を算出する移動経路生成処理を行う(ST8)。具体的には、移動経路生成処理では、まず、記憶部8からボクセル情報82を読出し、分割した移動可能な空間である自由ボクセル及び近接ボクセルの各ボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしてグラフ構造を生成する。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められる距離コストが設定されているものとする。このようにボクセル情報82に基づいて全ての移動可能なボクセルについてグラフ構造を生成した後、自律飛行ロボット1が存在しているボクセルのノードから移動目標位置が存在しているボクセルのノードまでの移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施の形態ではA*(エースター)経路探索法を用いて移動経路を探索する。この際、ボクセル情報82として記憶されたボクセルコストと距離コストとを、A*経路探索法における移動コストとして利用する。経路探索手段73で生成された生成された移動経路のデータは、経由点(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。図8は、移動候補位置を設定してから移動経路を生成するまでの概略を模式的に表した図である。同図では、撮像クラスタC1の中心位置O1から、ST5にて設定された離間距離R1だけ離れた位置に、等間隔に複数の移動候補位置Pcが設定されている。そして、これらの移動候補位置Pcの中から、移動目標位置としてPoが設定され、自己位置から当該移動目標位置Poに至る移動経路W0が生成されている。
Next, in the route search process, a movement route generation process for calculating the movement route of the
移動制御手段74は、経路探索手段73にて算出された移動経路と位置推定手段71にて推定された自己位置と速度推定手段72で推定された飛行速度とを用いて、自律飛行ロボット1が経路探索手段73で算出された移動経路に沿って飛行するように経路追従制御を行う。具体的には、移動経路、自己位置及び飛行速度を用いて各時刻での飛行制御値である制御指令値を求め、当該制御指令値に基づいてモータ4を制御し、ロータ2の回転数を制御する。
The movement control means 74 uses the movement route calculated by the route search means 73, the self-position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72, so that the
経路追従制御では、まず、各時刻での自律飛行ロボット1が目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図9はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、移動制御手段74は、経路探索手段73で生成された移動経路を記憶部8から読出し、自律飛行ロボット1が現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、移動制御手段74は、求めた直線Wと自律飛行ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律飛行ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律飛行ロボット1は移動経路に沿って飛行していくことになる。
In the route tracking control, first, a process of calculating the nearest position (hereinafter, referred to as “local target”) to be targeted by the
次に、経路追従制御では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角の各方向毎に制御指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような制御指令値を求める。具体的には、XYZ軸方向の制御指令値u=(ux,uy,uz)は、位置推定手段71で求められた自己位置r=(Xs,Ys,Zs)と速度推定手段72で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各制御指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、制御指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の制御指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律飛行ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vyawの式のようなPD制御により求める。なお、本実施の形態では、目標角度ψ'を撮像クラスタC1の中心位置O1の方向を向く角度とした。
Next, in the route tracking control, the process of calculating the control command values u x , u y , u z , u ψ for each direction of the X, Y, Z, and yaw angles so as to fly toward the calculated local target is performed. Do. At this time, a control command value is obtained so that the difference between the current self position and the local target position becomes small. Speed Specifically, the control command value XYZ axis u = (u x, u y , u z) , the self-position r = obtained by the position estimation means 71 (X s, Y s, Z s) and It is obtained by PID control using the velocity v = (v x , v y , v z ) estimated by the estimation means 72. Each control command value of the XYZ-axis direction u = (u x, u y , u z), the local target r '= (x, y, z) when the control command value is, u = Kp (r' -R) + Kd · v + Ki · e is calculated. Here, Kp, Kd, Ki is that the gain of the PID control, respectively, e = (e x, e y, e z) is the integral value of the error. On the other hand, for the control command value u ψ in the yaw angle direction, ψ'is the target angle, ψ is the attitude (angle) of the
このように、制御部7は、上述した位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74における各処理を逐次繰り返す。これにより、本実施の形態の自律飛行ロボット1は、撮像クラスタC1から離間距離だけ離れた位置に対して移動目標位置Poを逐次設定・更新し、その都度移動経路についても逐次設定・更新していくことによって、撮像クラスタに追従移動することができる。特に本実施の形態における自律飛行ロボット1は、撮像クラスタのクラスタサイズと視野角φとに基づいて撮像部3の撮像範囲内に当該撮像クラスタが含まれる位置を移動目標位置Poに設定している。これにより、複数の移動物体が存在する移動空間において、多くの移動物体Mを同時撮影する位置にて追従移動することができる。
In this way, the control unit 7 sequentially repeats each process of the position estimation means 71, the speed estimation means 72, the route search means 73, and the movement control means 74 described above. As a result, the
また、本実施の形態における自律飛行ロボット1は、経路探索処理(ST1)にて、撮像条件情報84の視野角φと解像度とに基づいて、移動物体Mを認識可能となるよう、クラスタの上限サイズを算出している。これにより、たとえ移動空間内に複数の移動物体Mが広く分散して位置していたとしても、クラスタリングによって生成されるクラスタのサイズを、移動物体Mを認識可能なサイズに設定することができ、撮像クラスタを構成する複数の移動物体Mを認識可能な解像度により、できる限り多くの移動物体を同時撮影しながら追従移動することができる。
Further, the
また、本実施の形態における自律飛行ロボット1は、経路探索処理(ST4)にて、撮像クラスタのクラスタサイズと視野角φと解像度とに応じて撮像クラスタからの離間距離の範囲を示す離間距離範囲を求め、撮像クラスタから当該離間距離範囲以内の離間距離の位置に移動目標位置を設定している。これにより、クラスタサイズが様々であるクラスタの中から選択した撮像クラスタを、撮像部3の撮像範囲内に含めることができる位置であって、撮像クラスタを構成する複数の移動物体Mを認識可能な解像度により、できる限り多くの移動物体を同時撮影できる位置を正確に求めることができる。
Further, the
ところで、本発明は、上記実施の形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施の形態で実施されてもよいものである。また、実施の形態に記載した効果は、これに限定されるものではない。 By the way, the present invention is not limited to the above-described embodiment, and may be further implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the embodiment is not limited to this.
上記実施の形態における経路探索処理では、ST1にてクラスタの上限サイズを決定し、ST4にて当該クラスタ(撮像クラスタ)が撮像範囲内に含まれる離間距離範囲を求めて、ST5にて当該離間距離範囲内の距離値として離間距離を設定している。しかし、これに限らず、離間距離を予め固定値として管理者等により記憶部8に設定しておき、選択クラスタの位置(例えば中心位置)から当該設定された離間距離だけ離れた位置に移動候補位置を設定してもよい。この場合、経路探索手段73は、経路探索処理(ST1)にて、自己位置から予め設定した離間距離だけ離れた位置にクラスタの中心位置があり、視野角φに基づいて求めた撮像部3の撮像可能範囲内に収まる最大のクラスタサイズを、上限サイズとして求めるものとする。そして、当該上限サイズを用いてクラスタリング(ST2)して求めたクラスタの中から撮像クラスタを選択し(ST3)、当該撮像クラスタから設定された離間距離だけ離れた位置に移動候補位置を設定する(ST6)。このように、離間距離が固定値であったとしても、複数の移動物体が存在する移動空間において、多くの移動物体Mを同時撮影する位置にて追従移動することができる。
In the route search process in the above embodiment, the upper limit size of the cluster is determined in ST1, the separation distance range in which the cluster (imaging cluster) is included in the imaging range is obtained in ST4, and the separation distance is determined in ST5. The separation distance is set as the distance value within the range. However, not limited to this, the separation distance is set in advance as a fixed value in the
また、上記実施の形態における経路探索処理では、ST3にて撮像クラスタを選択する際、自己位置に最も近いクラスタを撮像クラスタとして選択している。しかし、これに限らず、複数の移動物体Mの中から優先撮像対象となる移動物体Mを選択し、当該優先撮像対象として選択された移動物体Mを含んだクラスタを撮像クラスタとして選択してもよい。例えば、移動物体検出センサ104によって最初に検出した移動物体Mを優先撮像対象として設定し、当該優先撮像対象を含むクラスタを撮像クラスタとして選択する。または、検出した移動物体Mの中から所定の画像特徴を有する移動物体M(例えば、武器等を所持している移動物体Mや、マスクをしている移動物体M)を検出し、当該移動物体Mを優先撮像対象として設定して、当該優先撮像対象を含むクラスタを撮像クラスタとして選択してもよい。 Further, in the route search process in the above embodiment, when the imaging cluster is selected in ST3, the cluster closest to the self-position is selected as the imaging cluster. However, the present invention is not limited to this, and a moving object M to be a priority imaging target is selected from a plurality of moving objects M, and a cluster including the moving object M selected as the priority imaging target is selected as an imaging cluster. Good. For example, the moving object M first detected by the moving object detection sensor 104 is set as the priority imaging target, and the cluster including the priority imaging target is selected as the imaging cluster. Alternatively, a moving object M having a predetermined image feature (for example, a moving object M possessing a weapon or the like or a moving object M wearing a mask) is detected from the detected moving objects M, and the moving object M is concerned. M may be set as the priority imaging target, and the cluster including the priority imaging target may be selected as the imaging cluster.
また、上記実施の形態では、管理装置102に接続された移動物体検出センサ104を用いて移動物体Mを検出している。しかしながら、これに限定されるものではなく、撮像部3で取得した撮像画像を画像解析することにより、移動物体Mの位置を推定する画像解析手段(移動物体位置取得手段)を備えてもよい。例えば、撮像画像の各フレームを画像処理して移動物体Mの画像領域を抽出する処理を行う。この際、既知の技術(特開2006−146551号公報を参照)であるオプティカルフロー法、ブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器等を用いて移動物体Mの画像領域(人物領域)を抽出する。次に、当該抽出された画像領域の位置に基づいて移動物体Mと自律飛行ロボット1との距離を推定する。具体的には、抽出した移動物体Mの画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体Mの頭頂部のy座標位置を当該対応表に照らし合わせて自律飛行ロボット1との距離を推定する。しかし、これに限らず、抽出した移動物体Mの頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された移動物体Mの頭部の大きさを当該対応表に照らし合わせて自律飛行ロボット1との距離を推定してもよい。
Further, in the above embodiment, the moving object M is detected by using the moving object detection sensor 104 connected to the
また、自律飛行ロボット1に撮像部3としてカラーカメラの代わりに距離画像センサを搭載して、当該距離画像センサから取得した距離画像を用いて、既知の移動物体抽出技術により移動物体Mを抽出して、抽出した移動物体Mと自律飛行ロボット1との距離値と自己位置とから移動物体Mの位置を推定する画像解析手段(移動物体位置取得手段)を備えてもよい。また、自律飛行ロボット1にレーザスキャナを搭載し、位置推定手段71(移動物体位置取得手段)が、当該レーザスキャナの出力値と自己位置とを用いて移動物体Mの位置を推定してもよい。
Further, the
また、上記実施の形態では、制御部7において位置推定処理、速度推定処理、移動経路生成処理、経路追従制御の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律飛行ロボット1は、PCによって行われた位置推定処理、速度推定処理、移動経路生成処理、経路追従制御によって得られた制御指令値を無線通信又は有線通信によりPCから受信し、当該制御指令値に基づいてモータ4の回転数を制御することにより、目的の位置に飛行するようにしてもよい。このように、外部PCを用いて上記の一連の処理を分担することにより、自律飛行ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。
Further, in the above embodiment, the control unit 7 performs a series of processes of position estimation processing, speed estimation processing, movement route generation processing, and route tracking control. However, the present invention is not limited to this, and a control PC (not shown) may be prepared and the PC may be allowed to perform a series of these processes. That is, the
1・・・自律飛行ロボット
2・・・ロータ
3・・・撮像部
4・・・モータ
5・・・距離検出センサ
6・・・位置検出センサ
7・・・制御部
8・・・記憶部
9・・・通信部
71・・・位置推定手段
72・・・速度推定手段
73・・・経路探索手段
74・・・移動制御手段
81・・・移動物体位置
82・・・クラスタ情報
83・・・ボクセル情報
84・・・撮像条件情報
100・・・警備センタ
102・・・管理装置
104・・・移動物体検出センサ
110・・・情報通信網
M・・・移動物体
1 ... Autonomous flight robot 2 ...
Claims (5)
前記撮像部の視野角を記憶した記憶部と、
前記各移動物体の移動物体位置を取得する移動物体位置取得手段と、
前記自律移動ロボットの自己位置を推定する位置推定手段と、
前記移動物体の集合であるクラスタの前記移動物体位置を包含する最小の円のサイズが前記視野角に応じた上限サイズ以下となるようクラスタリングし、所定基準に従って該クラスタの中から撮像対象とする撮像クラスタを選択し、該撮像クラスタのクラスタサイズと前記視野角とに基づいて前記撮像部の撮像範囲内に該撮像クラスタが含まれる移動目標位置を設定し、前記自己位置から当該移動目標位置に至る移動経路を求める経路探索手段と、
前記移動経路に沿って移動するよう制御する移動制御手段と、
を有することを特徴とする自律移動ロボット。 An autonomous mobile robot that autonomously moves in a moving space and acquires images of a plurality of moving objects by an imaging unit.
A storage unit that stores the viewing angle of the imaging unit,
A moving object position acquisition means for acquiring the moving object position of each moving object, and
A position estimating means for estimating the self-position of the autonomous mobile robot, and
Clustering is performed so that the size of the smallest circle including the position of the moving object in the cluster, which is a collection of the moving objects, is equal to or less than the upper limit size according to the viewing angle, and imaging is performed from the cluster according to a predetermined standard. A cluster is selected, a moving target position including the imaging cluster is set within the imaging range of the imaging unit based on the cluster size of the imaging cluster and the viewing angle, and the movement target position is reached from the self-position. A route search means for finding a movement route and
A movement control means that controls movement along the movement path, and
An autonomous mobile robot characterized by having.
前記経路探索手段は、前記視野角及び前記解像度に応じた前記上限サイズを設定する請求項1に記載の自律移動ロボット。 The storage unit further stores the resolution of the imaging unit.
The autonomous mobile robot according to claim 1, wherein the route search means sets the upper limit size according to the viewing angle and the resolution.
The path search means according to claim 1 to 4, wherein a priority imaging target is selected from the plurality of moving objects, and the cluster including the selected moving object as the priority imaging target is selected as an imaging cluster. The autonomous mobile robot according to any one item.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016072710A JP6758068B2 (en) | 2016-03-31 | 2016-03-31 | Autonomous mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016072710A JP6758068B2 (en) | 2016-03-31 | 2016-03-31 | Autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017182690A JP2017182690A (en) | 2017-10-05 |
JP6758068B2 true JP6758068B2 (en) | 2020-09-23 |
Family
ID=60007511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016072710A Active JP6758068B2 (en) | 2016-03-31 | 2016-03-31 | Autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6758068B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7106327B2 (en) * | 2018-03-30 | 2022-07-26 | セコム株式会社 | Control device |
JP6675537B1 (en) * | 2019-03-12 | 2020-04-01 | Terra Drone株式会社 | Flight path generation device, flight path generation method and program, and structure inspection method |
JP7171938B2 (en) | 2019-09-27 | 2022-11-15 | 本田技研工業株式会社 | Imaging system, control device, control method, program and storage medium |
KR102199680B1 (en) * | 2020-05-26 | 2021-01-07 | 김용철 | Method and apparatus for controlling drone for autonomic landing |
CN112558637B (en) * | 2020-12-11 | 2022-11-25 | 西安航光卫星测控技术有限公司 | Method for avoiding air moving target by unmanned aerial vehicle in unmanned aerial vehicle cluster |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009004873A (en) * | 2007-06-19 | 2009-01-08 | Canon Inc | Camera control system and method, program and storage medium |
JP2009026209A (en) * | 2007-07-23 | 2009-02-05 | Toyota Motor Corp | Autonomous moving device |
JP6140458B2 (en) * | 2013-01-24 | 2017-05-31 | セコム株式会社 | Autonomous mobile robot |
-
2016
- 2016-03-31 JP JP2016072710A patent/JP6758068B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017182690A (en) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6029446B2 (en) | Autonomous flying robot | |
JP6664162B2 (en) | Autonomous flying robot | |
JP6195450B2 (en) | Autonomous flying robot | |
US20220234733A1 (en) | Aerial Vehicle Smart Landing | |
JP6599143B2 (en) | Autonomous mobile robot | |
JP6527726B2 (en) | Autonomous mobile robot | |
JP5990453B2 (en) | Autonomous mobile robot | |
JP6609833B2 (en) | Method and system for controlling the flight of an unmanned aerial vehicle | |
JP6758068B2 (en) | Autonomous mobile robot | |
JP6235213B2 (en) | Autonomous flying robot | |
JP6140458B2 (en) | Autonomous mobile robot | |
TWI784102B (en) | Method, processing device and non-transitory processor readable storage medium for operating or use in a robot vehicle | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
WO2018086133A1 (en) | Methods and systems for selective sensor fusion | |
JP6014485B2 (en) | Autonomous flying robot | |
JP6014484B2 (en) | Autonomous mobile robot | |
JP6530212B2 (en) | Autonomous mobile robot | |
JP6469492B2 (en) | Autonomous mobile robot | |
JP2017182692A (en) | Autonomous Mobile Robot | |
JP6758069B2 (en) | Autonomous flying robot | |
JP7351609B2 (en) | Route searching device and program | |
JP6595284B2 (en) | Autonomous mobile robot | |
WO2020088399A1 (en) | Information processing device, flight control method, and flight control system | |
JP6664258B2 (en) | Self-location estimation device | |
Kang | Development of a Peripheral-Central Vision System to Detect and Characterize Airborne Threats |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6758068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |