JP6527726B2 - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP6527726B2
JP6527726B2 JP2015053078A JP2015053078A JP6527726B2 JP 6527726 B2 JP6527726 B2 JP 6527726B2 JP 2015053078 A JP2015053078 A JP 2015053078A JP 2015053078 A JP2015053078 A JP 2015053078A JP 6527726 B2 JP6527726 B2 JP 6527726B2
Authority
JP
Japan
Prior art keywords
movement
mobile robot
autonomous mobile
estimation
voxel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015053078A
Other languages
Japanese (ja)
Other versions
JP2016173709A (en
Inventor
晴之 天本
晴之 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015053078A priority Critical patent/JP6527726B2/en
Publication of JP2016173709A publication Critical patent/JP2016173709A/en
Application granted granted Critical
Publication of JP6527726B2 publication Critical patent/JP6527726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動空間内を自律的に移動する自律移動ロボットに関する。   The present invention relates to an autonomous mobile robot that autonomously moves in a moving space.

従来、予め記憶した障害物マップ及び自身に備わる各種センサからのセンサ情報に基づいて自律的に移動可能な自律移動ロボットが提案されている。   Conventionally, there has been proposed an autonomous mobile robot that can autonomously move based on an obstacle map stored in advance and sensor information from various sensors provided in itself.

例えば、特許文献1には、距離検出センサを用いて測定した周囲の障害物等からの距離と、予め記憶した建物等の障害物を含む障害物マップとに基づいて自己位置を推定する自律飛行ロボットであって、予め記憶していない自動車などの移動障害物により自己位置を推定できないとき、当該移動障害物の少ない位置に上昇することにより自己位置を推定できるようにする自律飛行ロボットが開示されている。   For example, Patent Document 1 describes an autonomous flight that estimates a self position based on a distance from a surrounding obstacle or the like measured using a distance detection sensor and an obstacle map including an obstacle such as a building stored in advance. An autonomous flight robot is disclosed, which is a robot that can estimate its own position by rising to a position where the moving obstacle is small when the own position can not be estimated due to a moving obstacle such as a car that is not stored in advance. ing.

特開2014−149622号公報JP, 2014-149622, A

しかしながら、上記の従来技術のような距離検出センサを用いて自己位置を推定する方法ではなく、GNSS(Global Navigation Satellite System)等の人工衛星からの電波に基づいて自己位置を推定する方法が適用された場合、自律移動ロボットを上昇させることが必ずしも自己位置の推定精度の向上に寄与するとは限らない。例えば、人工衛星からの電波を遮るような障害物が自律移動ロボットの上部に存在する場合、上昇することが自己位置の推定精度の改善に寄与しないばかりか、上昇することにより当該障害物への衝突の危険性を増すことに繋がることにもなりうる。   However, instead of the method of estimating the self position using a distance detection sensor as in the prior art described above, a method of estimating the self position based on radio waves from artificial satellites such as GNSS (Global Navigation Satellite System) is applied. In this case, raising the autonomous mobile robot does not necessarily contribute to the improvement of the estimation accuracy of the self position. For example, if there is an obstacle at the top of the autonomous mobile robot that blocks radio waves from the artificial satellite, the rise not only contributes to the improvement of the estimation accuracy of the self position, but also raises the obstacle to the obstacle. It can also lead to an increased risk of collisions.

本発明は、自己位置の推定精度が悪い場合であっても、過去に自己位置の推定精度が高かった位置まで自律移動することにより、自律移動ロボットが安全に自律移動できるようにすることを目的とする。   An object of the present invention is to allow an autonomous mobile robot to safely move autonomously by autonomously moving to a position where the estimation accuracy of the self position is high in the past, even when the estimation accuracy of the self position is poor. I assume.

本発明の1つの態様は、移動空間内に設定された移動経路に基づいて移動制御する移動制御手段を有する自律飛行型の自律移動ロボットであって、前記移動空間を複数のボクセルに分割し、前記ボクセルの各々について自律移動ロボットの移動の障害となる度合いを示すボクセルコスト値を関連付けて記憶すると共に、自律移動ロボットが現在までに移動した前記移動空間内の座標群からなる移動履歴情報を記憶した記憶部と、自律移動ロボットの自己位置を推定すると共に、該自己位置の推定精度を求め、該自己位置と該推定精度とを関連付けて前記移動履歴情報として記憶する位置推定手段と、前記ボクセルコスト値に基づいて、移動目標位置に到達するまでに通過する前記ボクセルの前記ボクセルコスト値を加算した総コスト値が最も小さくなる前記移動経路を探索する経路探索手段と、を備え、前記移動制御手段は、自律移動ロボットの現在の自己位置における推定精度が第1閾値以下となる推定困難位置であるとき、該推定困難位置における該推定精度が低いほど該推定困難位置に該当する前記ボクセルの前記ボクセルコスト値をより高い値に変更する共に、前記移動履歴情報として記憶されている座標群の中で推定困難位置ではない座標に前記移動目標位置を設定し、前記経路探索手段にて探索された前記移動経路に基づいて自律移動ロボットを復帰制御することを特徴とする自律移動ロボットである。 One aspect of the present invention is an autonomous flight type mobile robot having movement control means for performing movement control based on a movement path set in the movement space , wherein the movement space is divided into a plurality of voxels, A voxel cost value indicating the degree of obstruction of movement of the autonomous mobile robot is stored in association with each of the voxels, and movement history information consisting of a coordinate group in the movement space which the autonomous mobile robot has moved so far is stored Position estimation means for estimating the self position of the autonomous mobile robot and obtaining the estimation accuracy of the self position, correlating the self position with the estimation accuracy and storing the movement history information, and the voxel Based on the cost value, the total cost value obtained by adding the voxel cost values of the voxels passing until reaching the movement target position is the most It comprises a route searching means for searching the traveling route fence made, the said movement control means, when the estimated accuracy of the current self-position of the autonomous mobile robot is estimated difficult position equal to or less than the first threshold value, the estimated difficulty The voxel cost value of the voxel corresponding to the estimation difficult position is changed to a higher value as the estimation accuracy at the position is lower, and the estimation difficulty position is not in the coordinate group stored as the movement history information. sets the movement target position in have coordinates are autonomous mobile robot, characterized by the return control an autonomous mobile robot based on the moving route searched by the route search means.

ここで、前記記憶部は、前記移動履歴情報として前記位置推定手段にて求められた推定精度を各座標に対応付けて記憶し、前記復帰制御は、前記移動履歴情報に記憶されている座標群の中で前記第1閾値より大きい第2閾値以上の推定精度をもつ座標であって前記現在の自己位置から最も近い座標を前記移動目標位置として前記復帰制御することが好適である。 Here, the storage unit stores the estimation accuracy obtained by the position estimation unit as the movement history information in association with each coordinate, and the return control stores the coordinate group stored in the movement history information. It is preferable that the return control is performed as the movement target position, which is a coordinate having an estimation accuracy equal to or higher than a second threshold which is larger than the first threshold .

本発明によれば、自己位置の推定精度の悪い位置にあっても過去の移動履歴に応じて推定精度が高い安全な位置まで自律的に移動できる自律移動ロボットを提供することができる。   According to the present invention, it is possible to provide an autonomous mobile robot that can autonomously move to a safe position with high estimation accuracy according to the past movement history even if it is at a position with poor estimation accuracy of its own position.

本発明の実施の形態における自律移動ロボットの構成を示す図である。It is a figure showing composition of an autonomous mobile robot in an embodiment of the invention. 本発明の実施の形態における自律移動ロボットシステムの構成を示す図である。FIG. 1 is a diagram showing the configuration of an autonomous mobile robot system according to an embodiment of the present invention. 本発明の実施の形態における自律移動ロボットの構成を示す機能ブロック図である。It is a functional block diagram showing composition of an autonomous mobile robot in an embodiment of the invention. 本発明の実施の形態における移動履歴情報の登録例を示す図である。It is a figure showing an example of registration of movement history information in an embodiment of the invention. 本発明の実施の形態における移動経路の生成に用いられるボクセルのグラフ構造を示す図である。It is a figure which shows the graph structure of the voxel used for the production | generation of the movement path | route in embodiment of this invention. 本発明の実施の形態におけるローカル目標の算出処理を説明する図である。It is a figure explaining calculation processing of a local target in an embodiment of the present invention. 本発明の実施の形態における自己位置の推定精度による移動制御を説明する図である。It is a figure explaining movement control by estimation accuracy of self-position in an embodiment of the present invention.

本発明の実施の形態における自律移動ロボット1は、図1の概観図に示すように、クアッドロータ型の小型無人ヘリコプタである。なお、本発明の適用範囲は、クアッドロータ型の小型無人ヘリコプタに限定されるものではなく、シングルロータ型の小型無人ヘリコプタや、自律移動する走行型のロボットについても同様に適用することができる。   The autonomous mobile robot 1 according to the embodiment of the present invention is a quad-rotor small unmanned helicopter as shown in the outline view of FIG. The scope of application of the present invention is not limited to the quad-rotor small unmanned helicopter, but can be similarly applied to a single-rotor small unmanned helicopter and a traveling robot that moves autonomously.

自律移動ロボット1は、図2のシステム構成図に示すように、外部の警備センタ100や管理装置102と通信し、監視空間(移動空間)内に存在する所定の移動物体を目標対象物Mとして追跡し、当該目標対象物Mに対して所定の機能を発揮するように構成されている。目標対象物Mとなる移動物体は、例えば、監視領域内に侵入した人物(賊等)である。本実施の形態では、所定の機能として、目標対象物Mを撮像する機能を例に説明するが、特に限定されるものではなく、目標対象物Mに対して音を発したり、発光による警告を行ったりする等の機能であってもよい。   The autonomous mobile robot 1 communicates with the external security center 100 and the management apparatus 102 as shown in the system configuration diagram of FIG. 2, and uses a predetermined moving object existing in the monitoring space (moving space) as the target object M. It tracks and it is comprised so that a predetermined | prescribed function may be exhibited with respect to the said target subject M. FIG. The moving object to be the target object M is, for example, a person (such as a bandit) who has invaded the monitoring area. In the present embodiment, as a predetermined function, the function of imaging the target object M will be described as an example, but the present invention is not particularly limited. A sound is emitted to the target object M or a warning by light emission is given. It may be a function such as going.

警備センタ100と管理装置102とはインターネット等の情報通信網110を介して情報伝達可能に接続される。また、自律移動ロボット1と管理装置102は、無線通信等によって情報伝達可能に接続される。   The security center 100 and the management apparatus 102 are connected so as to be able to transmit information via an information communication network 110 such as the Internet. Further, the autonomous mobile robot 1 and the management device 102 are connected so as to be able to transmit information by wireless communication or the like.

警備センタ100は、管理装置102を介して自律移動ロボット1と通信を行い、自律移動ロボット1によって撮像された目標対象物Mの撮像画像を受信する。警備センタ100は、撮像画像に対して画像処理を行い、警備センタ100にて異常監視している管理者等(図示しない)に警告を発するような機能を備えていてもよい。また、管理装置102から目標対象物Mの位置(座標)に関する情報を受信し、当該目標対象物Mと自律移動ロボット1によって撮像された撮像画像とを関連付けて管理するというような機能を備えてもよい。   The security center 100 communicates with the autonomous mobile robot 1 via the management device 102, and receives a captured image of the target object M captured by the autonomous mobile robot 1. The security center 100 may have a function of performing image processing on a captured image and issuing a warning to a manager (not shown) monitoring abnormality at the security center 100 (not shown). Also, it has a function of receiving information on the position (coordinates) of the target object M from the management device 102, and managing the target object M and the captured image captured by the autonomous mobile robot 1 in association with each other. It is also good.

管理装置102は、地面や壁面等に設置された固定型の目標対象物検出センサ104(104a,104b・・・)を備え、目標対象物Mの位置を検知する。目標対象物検出センサ104は、例えば、レーザセンサとすることができる。レーザセンサは、一定の角度サンプル間隔の角度毎にレーザを二次元的にスキャンすることによって、地面(又は床面)から一定の高さの水平面における検知範囲内に存在する物体(障害物)との距離情報を極座標値として取得する。レーザセンサは、放射状にレーザ光である探査信号を走査し、物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、レーザセンサの設置位置の座標及び探査信号を送信した方向と算出した距離から当該物体の位置の極座標値を求め、当該極座標値から3次元の直交座標値(Xt,Yt,Zt)を求める。管理装置102は、目標対象物検出センサ104によって求められた物体の位置を目標対象物Mの位置として自律移動ロボット1へ送信する。自律移動ロボット1は、目標対象物Mの位置を受信すると、その位置に基づいて移動経路を推定し、当該移動経路に沿って移動する。なお、管理装置102は、レーザセンサの検知範囲が重複する領域に存在する目標対象物Mの同一性を検証することで複数のレーザセンサの検知範囲に渡る目標対象物Mの追跡を行う。すなわち、レーザセンサ104aの検知範囲に存在する目標対象物Mがレーザセンサ104bの検知範囲に移動したとしても、管理装置102は、当該目標対象物Mが同一の物体であると判定することができる。 The management device 102 includes a fixed target object detection sensor 104 (104a, 104b,...) Installed on the ground or a wall surface, and detects the position of the target object M. The target object detection sensor 104 can be, for example, a laser sensor. The laser sensor scans the laser two-dimensionally at every angle of a fixed angular sample interval, and an object (obstacle) present in a detection range in a horizontal plane at a fixed height from the ground (or floor surface) The distance information of is acquired as a polar coordinate value. The laser sensor scans the search signal which is laser light radially, receives the search signal reflected back from the object, calculates the distance to the object from the time difference between transmission and reception, and the installation position of the laser sensor The polar coordinate value of the position of the object is determined from the coordinates of and the direction in which the search signal is transmitted and the calculated distance, and three-dimensional orthogonal coordinate values (X t , Y t , Z t ) are determined from the polar coordinate value. The management device 102 transmits the position of the object determined by the target object detection sensor 104 to the autonomous mobile robot 1 as the position of the target object M. When receiving the position of the target object M, the autonomous mobile robot 1 estimates a movement path based on the position, and moves along the movement path. The management device 102 tracks the target object M across the detection ranges of the plurality of laser sensors by verifying the identity of the target objects M present in the area where the detection ranges of the laser sensors overlap. That is, even if the target object M present in the detection range of the laser sensor 104a moves to the detection range of the laser sensor 104b, the management device 102 can determine that the target object M is the same object. .

以下、図1の概観図及び図3の機能ブロック図を参照して、自律移動ロボット1の構成及び機能について説明する。   The configuration and functions of the autonomous mobile robot 1 will be described below with reference to the schematic view of FIG. 1 and the functional block diagram of FIG.

自律移動ロボット1は、図1に示すように、4枚のロータ(プロペラ)2(2a〜2d)を一平面上に有する。各ロータ2は、バッテリ(二次電池:図示しない)により駆動されるモータ4(4a〜4d)を用いて回転させられる。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、自律移動ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、各ロータ2の回転数(fa〜fd)を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。例えば、機体をヨー方向に回転させたいときは、前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与えればよい。   The autonomous mobile robot 1 has four rotors (propellers) 2 (2a to 2d) on one plane, as shown in FIG. Each rotor 2 is rotated using a motor 4 (4a to 4d) driven by a battery (secondary battery: not shown). Generally, in single-rotor helicopters, the azimuth is maintained by counteracting the counter torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quad-rotor type helicopter such as the autonomous mobile robot 1, the counter torque is canceled by using the rotor 2 which rotates in different directions in the front and rear and left and right. And, by controlling the rotational speed (fa to fd) of each rotor 2, it is possible to adjust various movements and attitudes of the airframe. For example, when it is desired to rotate the vehicle body in the yaw direction, the rotational speeds of the front and rear rotors 2a and 2c and the left and right rotors 2d and 2b may be different.

撮像部3は、例えばレンズなどの光学系および所定画素(例えば640×480画素)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、飛行空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施の形態では、撮像部3は、その光軸が自律移動ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を視野角φにおいて撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して管理装置102に送信されたりする。   The imaging unit 3 includes, for example, an optical system such as a lens and a two-dimensional image sensor having a predetermined pixel (for example, 640 × 480 pixels) CCD and a two-dimensional array element such as CMOS. It is a so-called color camera acquired at intervals. In the present embodiment, the imaging unit 3 is installed in a housing portion so that the optical axis thereof images the front direction of the autonomous mobile robot 1, and obliquely lower with a depression angle θ predetermined from the horizontal surface (XY plane). The space is set to image at a viewing angle φ. The acquired captured image is output to the control unit 7 described later, stored in the storage unit 8 by the control unit 7, or transmitted to the management apparatus 102 through the communication unit 9 described later.

距離検出センサ5は、自律移動ロボット1の周囲に存在する障害物と自律移動ロボット1との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施の形態では、距離検出センサ5としてマイクロ波センサを備える。マイクロ波センサは、空間にマイクロ波を放出し、その反射波を検知することによって、自律移動ロボット1の周囲にある物体を探知し、その物体までの距離を求める。距離検出センサ5は、例えば、自律移動ロボット1の前方に向けて設け、目標対象物Mまでの距離を測定するために用いることができる。また、距離検出センサ5は、例えば、自律移動ロボット1の下部に下向きに設け、地面との距離(高度)を測定するために用いることもできる。また、距離検出センサ5は、例えば、撮像部3の画角方向に向けて設け、撮像部3の撮像対象物である目標対象物Mまでの距離を測定するために用いることができる。   The distance detection sensor 5 is a sensor that detects the distance between an obstacle present around the autonomous mobile robot 1 and the autonomous mobile robot 1 and acquires the relative position of the obstacle present in the sensor detection range. is there. In the present embodiment, a microwave sensor is provided as the distance detection sensor 5. The microwave sensor emits microwaves in space and detects the reflected wave, thereby detecting an object around the autonomous mobile robot 1 and determining the distance to the object. The distance detection sensor 5 can be provided, for example, toward the front of the autonomous mobile robot 1 and can be used to measure the distance to the target object M. Further, the distance detection sensor 5 can be provided, for example, downward on the lower part of the autonomous mobile robot 1 and used to measure the distance (altitude) to the ground. Further, the distance detection sensor 5 can be provided, for example, in the direction of the angle of view of the imaging unit 3 and can be used to measure the distance to the target object M that is the imaging object of the imaging unit 3.

位置検出センサ6は、自律移動ロボット1の現在位置を取得するためのセンサである。位置検出センサ6は、例えば、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する。位置検出センサ6は、複数の航法衛星(人工衛星)から送信される航法信号を受信して制御部7へ入力する。   The position detection sensor 6 is a sensor for acquiring the current position of the autonomous mobile robot 1. The position detection sensor 6 receives radio waves (navigation signals) transmitted from navigation satellites (artificial satellites) such as, for example, GNSS (Global Navigation Satellite System). The position detection sensor 6 receives navigation signals transmitted from a plurality of navigation satellites (artificial satellites) and inputs them to the control unit 7.

なお、位置検出センサ6は、レーザスキャナ、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の従来技術により自己位置を得るための情報を取得するものとしてもよい。   The position detection sensor 6 may acquire information for obtaining the self position by a known conventional technique using another sensor such as a laser scanner, a gyro sensor, an electronic compass, or an air pressure sensor.

通信部9は管理装置102との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施の形態では、撮像部3によって取得した撮像画像を通信部9により管理装置102に送信し、当該撮像画像を管理装置102から警備センタ100に送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。また、通信部9は、管理装置102から目標対象物Mの位置(座標:Xt,Yt,Zt)を受信することにより、後述するような移動経路の設定を可能にする。 The communication unit 9 is a communication module for performing wireless communication with the management apparatus 102 via, for example, a wireless LAN or a mobile telephone line. In the present embodiment, the captured image acquired by the imaging unit 3 is transmitted to the management apparatus 102 by the communication unit 9, and the captured image is transmitted from the management apparatus 102 to the security center 100 so that a security guard or the like remotely enters Make it possible to monitor people Further, the communication unit 9 enables setting of a movement path as described later by receiving the position (coordinates: Xt , Yt , Zt ) of the target object M from the management device 102.

記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部7との間でこれらの情報を入出力する。各種データには、移動履歴情報81、第1閾値82、第2閾値83、ボクセル情報84、移動空間グラフ情報85等の制御部7の各処理に用いられる各種パラメータ86、各センサ等の出力値及び撮像画像等が含まれる。   The storage unit 8 is an information storage device such as a read only memory (ROM), a random access memory (RAM), and a hard disk drive (HDD). The storage unit 8 stores various programs and various data, and inputs and outputs such information from and to the control unit 7. Various data include various parameters 86 used for each processing of the control unit 7 such as movement history information 81, first threshold 82, second threshold 83, voxel information 84, movement space graph information 85, and output values of each sensor and the like. And captured images and the like.

移動履歴情報81は、過去に自律移動ロボット1が移動した位置の履歴に関する情報である。移動履歴情報81には、図4に示すように、自律移動ロボット1が過去に移動した位置(座標:X,Y,Z)とその時刻及びその位置における推定精度が関連付けて登録される。自律移動ロボット1の位置は、後述の位置推定手段71にて位置検出センサ6において受信した緯度・経度の情報及び距離検出センサ5において測定された高度の情報に基づいて算出される。なお、位置検出センサ6にて受信された高度の情報を用いてもよい。推定精度は、当該位置における自己位置を推定する処理における確からしさを表わす指標である。推定精度は、例えば、位置検出センサ6において補足された衛星数、DOP値及び2drms値の少なくとも1つに基づいて算出される値を用いることが好適である。推定精度は、自己位置の推定の確度が高いほど高い値となるように設定される。また、位置検出センサ6をレーザスキャナ、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサとした場合、自己位置の推定精度は、位置検出センサ6の測定の精度と後述する位置推定手段71における推定処理の精度とを反映した値とすればよい。   The movement history information 81 is information on the history of the position at which the autonomous mobile robot 1 has moved in the past. In the movement history information 81, as shown in FIG. 4, the position (coordinates: X, Y, Z) at which the autonomous mobile robot 1 has moved in the past, the time, and the estimation accuracy at that position are registered in association. The position of the autonomous mobile robot 1 is calculated by the position estimation means 71 described later based on the information of latitude and longitude received by the position detection sensor 6 and the information of altitude measured by the distance detection sensor 5. The information on the altitude received by the position detection sensor 6 may be used. The estimation accuracy is an index that represents the certainty in the process of estimating the self position at the position. As the estimation accuracy, for example, it is preferable to use a value calculated based on at least one of the number of satellites captured by the position detection sensor 6, the DOP value, and the 2drms value. The estimation accuracy is set to be higher as the accuracy of the estimation of the self position is higher. When the position detection sensor 6 is another sensor such as a laser scanner, a gyro sensor, an electronic compass, or an air pressure sensor, the estimation accuracy of the self position is determined by the measurement accuracy of the position detection sensor 6 and the position estimation unit 71 described later. It may be a value reflecting the accuracy of the estimation process.

第1閾値82は、自律移動ロボット1の移動制御を行う際に、位置推定手段71にて推定した自己位置が良好な推定精度とならない位置(以下、「推定困難位置」という)であるか否かを判定するための基準となる閾値である。また、第2閾値83は、自己位置が良好な推定精度とならない推定困難位置であった場合、自律移動ロボット1を推定精度が高い位置に戻す際の判定に用いるための閾値である。第1閾値82及び第2閾値83を用いた処理については後述する。   Whether the first threshold 82 is a position where the self position estimated by the position estimation means 71 does not have good estimation accuracy (hereinafter referred to as “estimated difficult position”) when performing movement control of the autonomous mobile robot 1 It is a threshold that is a reference for determining the Further, the second threshold 83 is a threshold used for determination when returning the autonomous mobile robot 1 to a position with high estimation accuracy when the self position is an estimation difficult position that does not have good estimation accuracy. The process using the first threshold 82 and the second threshold 83 will be described later.

ボクセル情報84は、飛行空間をボクセル空間として複数のボクセルに分割して飛行空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶される情報である。本実施の形態では、飛行空間を所定の大きさ(例えば15cm×15cm×15cm)のボクセルに等分割し、各ボクセルの識別子であるボクセルIDと、飛行空間におけるボクセルの位置(座標)と、ボクセル属性と、ボクセルコスト値とを対応付けてボクセル情報84として記憶する。ボクセル属性には、建造物等の障害物に位置するボクセルを「占有ボクセル」と定義して、自律移動ロボット1が移動できない空間とする。そして、占有ボクセルの近くに存在する空間に位置するボクセルを「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルを「自由ボクセル」として定義する。   The voxel information 84 is information representing a structure of an obstacle in the flight space by dividing the flight space into a plurality of voxels as voxel space, and is information which is set in advance by a manager or the like and stored in the storage unit 8 . In the present embodiment, the flight space is equally divided into voxels of a predetermined size (for example, 15 cm × 15 cm × 15 cm), and a voxel ID which is an identifier of each voxel, the position (coordinates) of voxels in the flight space, and voxels The attribute and the voxel cost value are associated and stored as voxel information 84. In the voxel attribute, a voxel located at an obstacle such as a building is defined as an "occupied voxel" to make the space in which the autonomous mobile robot 1 can not move. Then, voxels located in the space near the occupied voxels are defined as "proximity voxels", and voxels located in other freely flyable areas are defined as "free voxels".

各ボクセルには、後述する経路探索手段73にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値が関連付けて登録される。ボクセルコスト値は、占有ボクセルにおいて最大値をとり、占有ボクセルからの距離が大きくなるほど小さな値となるように設定される。例えば、ボクセルコスト値=exp{−λ・(占有ボクセルからの距離)}の計算式からボクセルコスト値を算出することが好適である。ここでλは実験によって求めたパラメータである。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とする。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と設定する。なお、自律移動ロボット1が移動空間における予め定めた移動可能空間の外に出ないようにするため、移動可能空間とその外部との境界となるボクセルを占有ボクセルと設定することが好適である。   A voxel cost value indicating the degree of occupancy is registered in association with each voxel so that it can be used when generating a movement route by the route searching means 73 described later. The voxel cost value takes a maximum value in the occupied voxels, and is set to be smaller as the distance from the occupied voxels increases. For example, it is preferable to calculate a voxel cost value from a calculation formula of voxel cost value = exp {−λ · (distance from occupied voxel)}. Here, λ is a parameter obtained by experiment. Then, a voxel having a voxel cost value equal to or more than a predetermined threshold value is set as a “proximal voxel”. Further, a voxel whose voxel cost value is smaller than the threshold is set as a "free voxel", and a voxel cost value of a voxel regarded as a free voxel is set to zero. In order to prevent the autonomous mobile robot 1 from moving out of a predetermined movable space in the moving space, it is preferable to set a voxel which is a boundary between the movable space and the outside as an occupied voxel.

移動空間グラフ情報85は、ボクセル情報84に基づいて作成された3次元グラフ情報である。具体的には、ボクセル情報84に基づいて、各ボクセルの中心位置をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしたグラフ構造からなる情報である。図5は移動空間グラフ情報85のグラフ構造を説明する図であり、飛行空間におけるボクセルの一部(27個)を切り欠いたものである。図5において符号Bで表す個々の立方体はボクセルを表すものである。また、これらのボクセルBの中心位置にある黒又はハッチングにて塗りつぶした球はノードであり、ノード間を連結する点線で表示する線分はエッジである。   The movement space graph information 85 is three-dimensional graph information created based on the voxel information 84. Specifically, based on the voxel information 84, the central position of each voxel is a node, and it is information having a graph structure having a line segment connecting nodes adjacent to the node as an edge. FIG. 5 is a diagram for explaining the graph structure of the movement space graph information 85, in which a part (27) of voxels in the flight space is cut away. Individual cubes represented by reference symbol B in FIG. 5 represent voxels. In addition, black or hatched spheres at the center position of these voxels B are nodes, and line segments displayed by dotted lines connecting the nodes are edges.

また、記憶部8には、各種パラメータ86として離間距離や撮像条件情報等も記憶される。離間距離は、目標対象物Mに追従飛行するにあたって、自律移動ロボット1と目標対象物Mとの水平面における維持すべき相対距離である。離間距離は、自律移動ロボット1の管理者等によって予め設定される。自律移動ロボット1を用いて所定の目標対象物Mを監視する場合、目標対象物Mに近づき、より詳細な撮像画像を取得できる必要がある。しかし、侵入者などの敵対する目標対象物Mから攻撃を受けないようにするためには一定距離以上離間する必要がある。そのため、本実施の形態の自律移動ロボット1は、目標対象物Mの詳細な撮像画像を取得でき、かつ、当該目標対象物Mから攻撃を受け難い距離に離間距離を予め、当該離間距離を保ちつつ追従飛行するように制御される。離間距離は、例えば3mとして設定される。また、撮像条件情報は、撮像部3の視野を表す情報である。本実施の形態では、撮像部3の俯角θ及び視野角φが撮像条件情報として記憶される。撮像条件情報は、撮像部3の特性及び設置角度等に基づいて管理者等によって適宜設定される。なお、自律移動ロボット1に対して撮像部3の撮像方向を変更可能なカメラ制御装置を搭載した場合の他の実施形態においては、当該カメラ制御装置から撮像方向についての情報を取得するようにしてもよい。   In addition, the storage unit 8 also stores separation distance, imaging condition information, and the like as various parameters 86. The separation distance is a relative distance to be maintained in the horizontal plane between the autonomous mobile robot 1 and the target object M when following the target object M. The separation distance is set in advance by a manager of the autonomous mobile robot 1 or the like. In the case of monitoring a predetermined target object M using the autonomous mobile robot 1, it is necessary to approach the target object M and acquire a more detailed captured image. However, in order not to be attacked by an enemy target object M such as an intruder, it is necessary to keep a certain distance or more. Therefore, the autonomous mobile robot 1 according to the present embodiment can acquire a detailed captured image of the target object M and keep the separation distance at a distance which is less likely to be attacked from the target object M in advance. It is controlled to follow while flying. The separation distance is set, for example, as 3 m. The imaging condition information is information representing the field of view of the imaging unit 3. In the present embodiment, the depression angle θ and the viewing angle φ of the imaging unit 3 are stored as imaging condition information. The imaging condition information is appropriately set by a manager or the like based on the characteristics of the imaging unit 3, the installation angle, and the like. In another embodiment in which the camera control device capable of changing the imaging direction of the imaging unit 3 is mounted on the autonomous mobile robot 1, information on the imaging direction is acquired from the camera control device. It is also good.

制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理、速度推定処理、経路探索処理、移動制御処理(経路追従制御及び復帰制御)を行う一連の処理として、位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74を含んでいる。   The control unit 7 is constituted by a computer having a CPU or the like, and performs position estimation processing 71 as a series of processing for performing position estimation processing, speed estimation processing, route search processing, movement control processing (route following control and return control). It includes speed estimation means 72, route search means 73, and movement control means 74.

位置推定手段71は、位置検出センサ6の出力に基づいて、飛行空間における自律移動ロボット1の現在位置(自己位置)を推定する位置推定処理を行う。   The position estimation means 71 performs position estimation processing for estimating the current position (self position) of the autonomous mobile robot 1 in the flight space based on the output of the position detection sensor 6.

具体的には、位置検出センサ6から得られた複数の航法衛星からの航法信号に基づいて既知の周知技術に基づいて推定した緯度・経度と、距離検出センサ5から得られた高度とから自己位置の座標(Xs,Ys,Zs)を計算する。なお、自己位置の推定方法はこれに限定されるものではなく、他の方法を用いて自律移動ロボット1の現在位置を推定してもよい。 Specifically, the self is estimated from the latitude / longitude estimated based on the known technology based on the known signals based on the navigation signals from the plurality of navigation satellites obtained from the position detection sensor 6 and the altitude obtained from the distance detection sensor 5 Calculate coordinates of position (X s , Y s , Z s ). In addition, the estimation method of a self-position is not limited to this, You may estimate the present position of the autonomous mobile robot 1 using another method.

位置推定手段71は、推定された自己位置(座標:Xs,Ys,Zs)と管理装置102から受信した目標対象物Mの位置(座標:Xt,Yt,Zt)を経路探索手段73へ出力する。 The position estimating means 71 routes the estimated self position (coordinates: X s , Y s , Z s ) and the position of the target object M (coordinates: X t , Y t , Z t ) received from the management device 102 Output to the search means 73.

また、位置推定手段71は、推定された自己位置に関連付けて、自己位置を推定したときの時刻及び当該自己位置の推定精度を移動履歴情報81に追記する。   Further, the position estimation means 71 adds the time when the self position is estimated and the estimation accuracy of the self position to the movement history information 81 in association with the estimated self position.

なお、位置推定手段71は、目標対象物Mの位置に基づいてボクセル情報84を更新する処理を行う。具体的には、記憶部8のボクセル情報84に基づいたボクセル空間に目標対象物Mの位置を中心として予め定めた目標対象物Mの大きさと略同じ大きさの円柱モデル(例えば、監視対象の目標対象物Mを侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを占有ボクセルとして設定することによりボクセル情報84を更新する。後述するように、自律移動ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように目標対象物Mの位置に基づいてボクセル情報84を更新することにより、自律移動ロボット1と目標対象物Mとの接触を回避することができる。   The position estimation unit 71 performs processing of updating the voxel information 84 based on the position of the target object M. Specifically, a cylinder model having substantially the same size as the size of the target object M determined in advance in the voxel space based on the voxel information 84 of the storage unit 8 with the position of the target object M as the center (for example, Assuming that the target object M is an intruder, arrange a cylinder model with a radius of 0.3 m and a height of 1.7 m on the bottom surface, and set voxels that interfere with the cylinder model as occupied voxels to obtain voxel information Update 84 As described later, the autonomous mobile robot 1 is flight-controlled so as not to move to the occupied voxels, but as described above, the autonomous mobile robot 1 is updated by updating the voxel information 84 based on the position of the target object M. It is possible to avoid contact between the target object 1 and the target object M.

速度推定手段72は、後述する移動制御手段74における移動制御で利用するため、自律移動ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する処理を行う。本実施の形態では、位置推定手段71にて推定した自己位置(Xs,Ys,Zs)の時間変化から飛行速度を求める。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定することが好適である。 The velocity estimation means 72 performs processing for estimating the current flight velocity (v x , v y , v z , v yaw ) of the autonomous mobile robot 1 for use in movement control in the movement control means 74 described later. In the present embodiment, the flight speed is determined from the time change of the self position (X s , Y s , Z s ) estimated by the position estimation means 71. At this time, it is preferable to estimate the flight speed using an extended Kalman filter in consideration of the influence of a measurement error or the like.

経路探索手段73は、位置推定手段71で推定された自己位置及び目標対象物Mの位置と、記憶部8に記憶された各種情報とを用いて自律移動ロボット1の移動経路を算出する処理を行う。本実施の形態では、経路探索手段73は、自己位置から目標対象物Mの近傍に設定した移動目標位置に至る移動経路を生成する。   The route search means 73 calculates the movement route of the autonomous mobile robot 1 using the self position estimated by the position estimation means 71 and the position of the target object M and the various information stored in the storage unit 8. Do. In the present embodiment, the route search means 73 generates a movement route from the self position to the movement target position set in the vicinity of the target object M.

経路探索手段73は、目標対象物Mの位置に基づいて移動目標位置を設定する。本実施の形態では、(目標対象物Mの位置の時間変化により求めた)目標対象物Mの移動方向を目標対象物Mの正面方向として定め、当該正面方向に予め設定した離間距離(3m)だけ水平方向に離れた位置であって高度3mの位置を移動目標位置として設定する。そして設定された移動目標位置と、記憶部8に記憶されたボクセル情報84及び移動空間グラフ情報85と位置推定手段71にて算出された自己位置とを用いて自律移動ロボット1の移動経路を算出する経路生成処理を行う。   The route search means 73 sets the movement target position based on the position of the target object M. In the present embodiment, the moving direction of the target object M (determined by time change of the position of the target object M) is determined as the front direction of the target object M, and the separation distance (3 m) preset in the front direction And a position 3 m above the altitude, which is a position separated in the horizontal direction, as the movement target position. The movement route of the autonomous mobile robot 1 is calculated using the set movement target position, the voxel information 84 and movement space graph information 85 stored in the storage unit 8, and the self position calculated by the position estimation means 71. Perform route generation processing.

経路生成処理では、ボクセル情報84及び移動空間グラフ情報85を参照し、自己位置に対応するボクセルのノード(以下「スタートノード」という)から移動目標位置に対応するボクセルのノード(以下「ゴールノード」という)に至る総コスト値Cが最も小さくなる経路をA*経路探索法により探索する。   In the path generation process, the voxel information 84 and the moving space graph information 85 are referred to, and the voxel node corresponding to the self position is referred to as “start node” and the voxel node corresponding to the movement target position (hereinafter referred to as “goal node”) A * path search method is used to search for a path that minimizes the total cost value C to.

A*経路探索法では、ある評価ノードn(ノードIDがnのノード)における総コスト値C(n)を数式(1)で表わす。
In the A * route search method, the total cost value C (n) at a certain evaluation node n (node with node ID n) is represented by Expression (1).

ここで、g(n)は、評価ノードnについてのA*経路探索法におけるgコスト値であり、本実施の形態では、スタートノードから評価ノードnに至るまでの移動距離や障害物への接触危険性を考慮したコスト値として求める。すなわち、評価ノードnのgコスト値であるg(n)は、隣接ノードにおけるgコスト値であるg(n−1)と、当該隣接ノードから評価ノードに至る距離に基づいて設定された距離コストCM、評価ノードにおけるボクセルコストCv(n)との和とし、g(n)=g(n−1)+CM+Cv(n)により求める。また、h(n)は、評価ノードnについてのA*経路探索法におけるhコスト値であり、評価ノードnからゴールノードに至る距離の推定コスト値である。本実施形態では、評価ノードnからゴールノードに至る直線距離によりh(n)を求める。A*経路探索法では、スタートノードから順に隣接ノードの総コスト値C(n)を算出していくことを繰り返し、最終的にゴールノードに至る総コスト値C(n)が最も小さくなる経路を探索していく。 Here, g (n) is the g cost value in the A * route search method for evaluation node n, and in the present embodiment, the moving distance from the start node to the evaluation node n and the contact with an obstacle Calculated as a cost value that takes into consideration the danger. That is, g (n), which is the g cost value of evaluation node n, is a distance cost set based on g (n-1), which is the g cost value of the adjacent node, and the distance from the adjacent node to the evaluation node Let C M be the sum of voxel cost C v (n) at the evaluation node, and g (n) = g (n−1) + C M + C v (n). Also, h (n) is the h cost value in the A * route search method for the evaluation node n, and is an estimated cost value of the distance from the evaluation node n to the goal node. In the present embodiment, h (n) is obtained from the linear distance from the evaluation node n to the goal node. In the A * route search method, it is repeated to calculate the total cost value C (n) of the adjacent node sequentially from the start node, and the route with the smallest total cost value C (n) reaching the goal node finally is selected. I will search.

以下に、A*経路探索法による移動経路の生成について簡単に説明する。A*経路探索法では、まず、スタートノードに隣接する一又は複数のノード(隣接ノード)を評価ノードとして設定するところから開始する。そして、それぞれの評価ノードについて式(1)により総コスト値を求める。次に、評価ノードの中で最小の総コスト値となるノードを注目ノードと称したとき、当該注目ノードの(これまで評価ノードと設定されていない新たな)隣接ノードを新たに評価ノードとして追加し、新たに追加された評価ノードに対しても同様に総コスト値を求める。続いて、同様に全ての評価ノードの中で最小の総コスト値となる評価ノードを注目ノードに再設定する。このように、評価ノードの総コスト値に基づいた注目ノードの再設定と、当該再設定に伴う新たな評価ノードの追加及び総コスト値の計算を繰り返し、最終的にゴールノードが注目ノードとして設定されたとき、経路の探索は終了する。   The generation of the movement route by the A * route search method will be briefly described below. In the A * route search method, first, one or more nodes (adjacent nodes) adjacent to the start node are set as evaluation nodes. Then, the total cost value is determined by equation (1) for each evaluation node. Next, when the node having the lowest total cost value among the evaluation nodes is referred to as an attention node, a new adjacent node (newly not set as an evaluation node so far) of the attention node is newly added as an evaluation node Similarly, the total cost value is obtained for the newly added evaluation node. Subsequently, the evaluation node having the lowest total cost value among all the evaluation nodes is similarly reset to the node of interest. In this way, reconfiguration of the attention node based on the total cost value of the evaluation node, addition of a new evaluation node accompanying the reconfiguration, and calculation of the total cost value are repeated, and finally the goal node is set as the attention node When done, the route search ends.

このようにして、起点となるスタートノードから終点となるゴールノードに至る最良の移動経路が生成される。経路探索手段73で生成された移動経路のデータは、経由点となるノードの位置(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。   In this way, the best travel route from the start node as the start point to the goal node as the end point is generated. The data of the movement route generated by the route search means 73 is set data of the position (x, y, z) of the node which is the passing point, and this information is temporarily stored in the storage unit 8.

なお、経路の探索方法は、A*経路探索法に限定されるものでなく、ダイクストラ法等の他の経路探索方法を適用してもよい。   The route search method is not limited to the A * route search method, and other route search methods such as Dijkstra method may be applied.

移動制御手段74は、経路探索手段73にて算出された移動経路と位置推定手段71にて推定された自己位置と速度推定手段72で推定された飛行速度とを用いて、自律移動ロボット1が経路探索手段73で算出された移動経路に沿って飛行するように経路追従制御を行う。具体的には、移動経路、自己位置及び飛行速度を用いて各時刻での飛行制御値である速度指令値を求め、当該速度指令値に基づいてモータ4を制御し、ロータ2の回転数を制御する。   The movement control means 74 uses the movement route calculated by the route search means 73, the self position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72, and the autonomous mobile robot 1 The route following control is performed so as to fly along the moving route calculated by the route searching means 73. Specifically, a velocity command value, which is a flight control value at each time, is determined using the movement path, own position, and flight velocity, and the motor 4 is controlled based on the velocity command value. Control.

経路追従制御では、まず、各時刻での自律移動ロボット1が目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図6はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、移動制御手段74は、経路探索手段73で生成された移動経路を記憶部8から読出し、自律移動ロボット1が現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、移動制御手段74は、求めた直線Wと自律移動ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律移動ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律移動ロボット1は移動経路に沿って飛行していくことになる。 In the path following control, first, processing is performed to calculate the nearest position (hereinafter referred to as “local target”) that the autonomous mobile robot 1 at each time point should take as a target. FIG. 6 is a diagram for explaining the calculation of the local target. In calculating the local target, the movement control means 74 reads the movement route generated by the route search means 73 from the storage unit 8 and has passed the transit point W p1 to which the autonomous mobile robot 1 is aiming at the current time. A straight line W connecting two points with the passing point W p0 is obtained. Then, the movement control means 74 calculates the intersection points L p ′ and L p between the straight line W thus determined and the sphere S centered on the self position of the autonomous mobile robot 1, and the intersection point L close to the via point W p1 being aimed Determine p as a local goal. Thus, at each time by flight control to autonomous mobile robot 1 with the aim of local target moves always continue to move toward the above movement path local targets movement target position P o, the autonomous mobile robot 1 will fly along the moving path.

次に、経路追従制御では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角の各方向毎に速度指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような速度指令値を求める。具体的には、XYZ軸方向の速度指令値u=(ux,uy,uz)は、位置推定手段71で求められた自己位置r=(Xs,Ys,Zs)と速度推定手段72で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各速度指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、速度指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の速度指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律移動ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vψの式のようなPD制御により求める。なお、本実施の形態では、目標角度ψ'を目標対象物Mの方向、すなわち、目標対象物Mの位置の方向を向く角度とした。 Next, in the route following control, processing is performed to calculate speed command values u x , u y , u z and uψ for each direction of X, Y, Z and yaw angle so as to fly toward the calculated local target. . At this time, a speed command value is calculated such that the difference between the current self position and the position of the local target is reduced. Specifically, the velocity command values u = (u x , u y , u z ) in the XYZ axis direction are calculated based on the self position r = (X s , Y s , Z s ) determined by the position estimation means 71 and the velocity Using the velocity v = (v x , v y , v z ) estimated by the estimation means 72, the value is obtained by PID control. Assuming that each velocity command value in the XYZ axis direction is u = (u x , u y , u z ) and the local target is r '= (x, y, z), the velocity command value is u = K p (r It is calculated by the equation of '−r) + Kd · v + Ki · e. Here, K p , K d and K i are gains of PID control, respectively, and e = (e x , e y , e z ) is an integral value of the error. On the other hand, the velocity command value u 方向 in the yaw angle direction is the target angle of ψ ′, the posture (angle) of the autonomous mobile robot 1 with ψ estimated by the position estimation means 71, and the angular velocity with v yaw estimated by the speed estimation means 72 Then, determined by PD control as equation uψ = K p (ψ'-ψ ) + K d · vψ. In the present embodiment, the target angle ψ ′ is an angle facing the direction of the target object M, that is, the direction of the position of the target object M.

このように、制御部7は、上述した位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74における各処理を逐次繰り返す。これにより、本実施の形態の自律移動ロボット1は、目標対象物Mから離間距離の位置に対して移動目標位置を逐次更新し、その都度移動経路についても逐次更新していくことによって、目標対象物Mを適切に追従することができる。   As described above, the control unit 7 sequentially repeats each process in the position estimation unit 71, the speed estimation unit 72, the route search unit 73, and the movement control unit 74 described above. Thereby, the autonomous mobile robot 1 of the present embodiment sequentially updates the movement target position with respect to the position of the separation distance from the target object M, and sequentially updates the movement route each time as well. The object M can be properly followed.

以上のように、自律移動ロボット1は、自己位置から移動目標位置までの経路を探索し、探索された経路に沿って自律的に移動する。しかしながら、位置推定手段71による移動経路の探索の起点となる自己位置の推定精度が低い場合、その起点を基準として探索された移動経路に沿って自律移動ロボット1が移動した場合に障害物等に衝突するおそれがある。また、経路追従制御においても自己位置を用いて飛行制御しているため、自己位置の推定精度が低い場合、移動経路に適切に追従できないばかりか、障害物等に衝突するおそれもある。   As described above, the autonomous mobile robot 1 searches for a route from the self position to the movement target position, and autonomously moves along the searched route. However, when the estimation accuracy of the self position which is the starting point of the search of the movement route by the position estimation means 71 is low, when the autonomous mobile robot 1 moves along the movement route searched based on the starting point There is a risk of collision. In addition, since the flight control is performed using the self position also in the path following control, when the estimation accuracy of the self position is low, not only the moving path can not be appropriately followed, but also collision with an obstacle or the like may occur.

そこで、自律移動ロボット1では、自己位置の推定精度が低い場合には過去の移動履歴に基づいて推定精度が高い位置まで自律移動ロボット1を移動させる復帰制御を行う。以下、図7を参照しつつ、復帰制御について説明する。図7は、ボクセルで表示した飛行空間の一部を真上から見下ろしたときの図である。同図において、黒塗りされたボクセルは占有ボクセルであり、平行斜線(ハッチング)で塗られたボクセルは近接ボクセルであり、白色のボクセルは自由ボクセルである。図7に表すように、目標対象物Mから正面方向に離間距離(3m)だけ離れた位置Pを移動目標位置に設定されていることとする。   Therefore, the autonomous mobile robot 1 performs return control to move the autonomous mobile robot 1 to a position with high estimation accuracy based on the past movement history when the estimation accuracy of the self position is low. Hereinafter, the return control will be described with reference to FIG. FIG. 7 is a diagram when a portion of the flight space represented by voxels is viewed from directly above. In the figure, blacked voxels are occupied voxels, voxels painted with parallel hatching (hatching) are adjacent voxels, and white voxels are free voxels. As shown in FIG. 7, it is assumed that a position P separated from the target object M in the front direction by a separation distance (3 m) is set as the movement target position.

移動制御手段74は、位置推定手段71から推定された自己位置の入力を受けると共に、記憶部8に記憶されている移動履歴情報81から当該自己位置に関連付けて登録されている推定精度を読み出す。移動制御手段74は、読み出された推定精度が記憶部8に予め記憶されている第1閾値82と比較し、第1閾値82以下であれば当該自己位置は推定困難位置であるとして復帰制御を開始する。図7(a)では、自律移動ロボット1は、時刻t0における自己位置P0において生成した移動経路R1に沿って移動し、その移動中における時刻t1の自己位置にて当該位置が推定困難位置P1であると判定したことを表している。   The movement control means 74 receives the input of the self position estimated from the position estimation means 71, and reads the estimation accuracy registered in association with the self position from the movement history information 81 stored in the storage unit 8. The movement control means 74 compares the read estimation accuracy with the first threshold 82 stored in advance in the storage unit 8, and if the first threshold 82 or less, the return control is performed because the self position is the estimation difficult position. To start. In FIG. 7A, the autonomous mobile robot 1 moves along the movement route R1 generated at the self position P0 at time t0, and the position at the self position at time t1 during the movement is estimated hard position P1. It represents that it is determined that there is.

復帰制御は、移動履歴情報81として記憶されている位置(座標)中で推定困難位置ではない所定の位置に自律移動ロボット1を移動させる制御とする。移動制御手段74は、自律移動ロボット1を移動制御する際に、位置推定手段71において現在の自己位置の推定に対する推定精度が第1閾値82以下であれば、移動履歴情報81から第1閾値82より大きい第2閾値83以上の推定精度を有する座標で表される位置(以下、臨時目標位置という)を読み出す。そして、移動制御手段74は、現在の自己位置から臨時目標位置に至る移動経路に沿って自律移動ロボット1を移動させるように復帰制御を行う。図7(b)では、復帰制御により、推定困難位置P1から臨時目標位置P2として設定された位置までの移動経路R2を求め、当該移動経路R2に沿うよう移動し、時刻t2において臨時目標位置P2まで移動したことを表している。   The return control is control for moving the autonomous mobile robot 1 to a predetermined position which is not the estimated difficult position in the position (coordinates) stored as the movement history information 81. When the movement control means 74 performs movement control of the autonomous mobile robot 1, if the estimation accuracy with respect to the estimation of the current self position in the position estimation means 71 is equal to or less than the first threshold 82, the movement history information 81 to the first threshold 82 The position (hereinafter referred to as a temporary target position) represented by coordinates having an estimation accuracy greater than or equal to the second threshold 83 is read. Then, the movement control means 74 performs return control so as to move the autonomous mobile robot 1 along the movement route from the current self position to the temporary target position. In FIG. 7B, a return route controls the movement route R2 from the estimated difficult position P1 to the position set as the temporary target position P2 by return control, and moves along the movement route R2, and the temporary target position P2 is obtained at time t2. It indicates that it has moved up.

なお、現在の自己位置から臨時目標位置までの移動経路は、上記経路探索手段73による現在の自己位置から移動目標位置までの移動経路の経路探索処理と同様に行えばよい。すなわち、移動目標位置を臨時目標位置に置き換えて、上記経路探索処理を行うことにより現在の自己位置から臨時目標位置までの移動経路を定めることができる。   The movement route from the current self position to the temporary target position may be performed in the same manner as the route search processing of the movement route from the current self position to the movement target position by the route search means 73. That is, the movement target position is replaced with the temporary target position, and the movement route from the current self position to the temporary target position can be determined by performing the above-described route search processing.

また、具体的な移動制御は、移動目標位置までの経路に沿った移動制御と同様にローカル目標を適宜定めながら経路追従制御を行えばよい。   Further, in the specific movement control, the route following control may be performed while appropriately setting the local target as in the movement control along the route to the movement target position.

このような構成とすることによって、自律移動ロボット1は、たとえ自己位置の推定精度が悪い位置(推定困難位置)に移動したとしても、過去に移動した位置であって推定精度が第1閾値82より大きい安全な位置(臨時目標位置)まで自動的に復帰することができる。   With such a configuration, even if the autonomous mobile robot 1 moves to a position where estimation accuracy of its own position is poor (estimated position), the autonomous mobile robot 1 has moved in the past and the estimation accuracy is the first threshold 82. It is possible to automatically return to a larger safe position (temporary target position).

また、移動制御手段74は、移動履歴情報81として記憶されている位置のうちその推定精度が第1閾値82を超える第2閾値83以上となる位置のうち現在の自己位置の座標に最も近い座標の位置を臨時目標位置とすることが好適である。   Further, the movement control means 74 is a coordinate closest to the coordinates of the current self position among the positions where the estimation accuracy exceeds the first threshold 82 among the positions stored as the movement history information 81. It is preferable to set the position of as a temporary target position.

これにより、自律移動ロボット1は、現在の推定困難位置から、過去に移動した位置の中で推定精度がより高い位置に向かって素早く復帰することができる。   As a result, the autonomous mobile robot 1 can quickly return from the current estimated difficulty position to a position with higher estimation accuracy among the positions moved in the past.

また、移動制御手段74は、移動履歴情報81として記憶されている移動履歴を遡るように自律移動ロボット1を推定精度の高い位置に復帰させるように移動制御してもよい。この場合、移動制御手段74は、移動履歴情報81を参照して現在の自己位置から過去に遡る移動履歴を読み出す。このとき、移動制御手段74は、移動履歴を遡りつつ推定精度が初めて第1閾値82を超える第2閾値83以上となる臨時目標位置までの移動経路の履歴を読み出す。すなわち、現在の自己位置から過去に移動してきた経路を遡りつつ、移動履歴情報81として記憶されている座標群の中で第1閾値82より大きい第2閾値83以上の推定精度である最も近い座標を臨時目標位置として、現在の自己位置から臨時目標位置までの移動経路履歴を読み出す。そして、移動制御手段74は、読み出された現在の自己位置から臨時目標位置まで遡る移動経路履歴に沿って自律移動ロボット1を復帰させるように移動制御を行う。   Further, the movement control means 74 may perform movement control so as to restore the autonomous mobile robot 1 to a position with high estimation accuracy so as to trace back the movement history stored as the movement history information 81. In this case, the movement control means 74 refers to the movement history information 81 and reads out the movement history going back from the current self position to the past. At this time, the movement control means 74 reads the history of the movement route to the temporary target position at which the estimation accuracy reaches the second threshold 83 which exceeds the first threshold 82 for the first time while tracing back the movement history. That is, while tracing back the route that has traveled from the current self position in the past, among the coordinate groups stored as the movement history information 81, the closest coordinates having an estimation accuracy of the second threshold 83 or more larger than the first threshold 82 The movement route history from the current self position to the temporary target position is read out, with Then, the movement control means 74 performs movement control so as to restore the autonomous mobile robot 1 along the movement path history going back from the read current self position to the temporary target position.

これにより、自律移動ロボット1は、推定困難位置である現在の自己位置からこれまで移動してきた推定精度が第2閾値83以上の位置であって、安全な移動が確認できている経路に沿って臨時目標位置まで自動的に移動することができる。   As a result, the autonomous mobile robot 1 moves from the current self position, which is the hard-to-estimate position, to the position where the estimation accuracy so far is the second threshold 83 or more, and along the route where safe movement can be confirmed. It can move to the temporary target position automatically.

また、経路探索手段73において移動履歴情報81として記憶されている過去に移動した位置の推定精度を考慮せずに経路探索を行ったが、推定精度を考慮して経路探索を行う構成としてもよい。この場合、移動制御手段74は、現在の自己位置の推定精度が第1閾値82以下であれば当該位置に対応するボクセルのボクセルコストを高くする処理を行う。   In addition, although route search is performed without considering the estimation accuracy of the position moved in the past stored as the movement history information 81 in the route search means 73, route search may be performed in consideration of the estimation accuracy. . In this case, if the estimation accuracy of the current self position is equal to or less than the first threshold 82, the movement control means 74 performs processing to increase the voxel cost of the voxel corresponding to the position.

例えば、推定困難位置を含むボクセルにおける現在のボクセルコスト値にexp{−δ・(推定精度)}の計算式から算出した値を足すことにより、新たなボクセルコスト値を求めることが好適である。ここでδは実験によって求めたパラメータである。また、推定困難位置を含むボクセルにおける現在のボクセルコスト値を占有ボクセルと同じ最大値に変更してもよい。図7(c)では、自律移動ロボット1は、時刻t3において、推定困難位置P1を含むボクセルのボクセルコスト値を高め、自由ボクセルから近接ボクセルにボクセル属性を変更していることを表している。また、これにより、新たに生成された移動経路R3は、推定困難位置P1の近傍を含まない経路となっていることを表している。   For example, it is preferable to obtain a new voxel cost value by adding the value calculated from the equation of exp {-δ (estimation accuracy)} to the current voxel cost value in the voxel including the estimation difficult position. Here, δ is a parameter obtained by experiment. Also, the current voxel cost value in the voxel including the estimated hard position may be changed to the same maximum value as the occupied voxel. FIG. 7C shows that, at time t3, the autonomous mobile robot 1 increases the voxel cost value of the voxel including the estimated difficulty position P1 and changes the voxel attribute from free voxels to neighboring voxels. Further, this indicates that the newly generated moving route R3 is a route not including the vicinity of the estimated difficult position P1.

このように、推定精度が低い位置(推定困難位置)におけるボクセルコスト値を高めることによって、経路探索手段73において移動履歴情報81に記憶されている座標群の中で推定困難位置である座標の近傍を含まない移動経路を生成することができる。   As described above, by raising the voxel cost value at a position with low estimation accuracy (estimation difficult position), the vicinity of the coordinates which are the estimation difficult position in the coordinate group stored in the movement history information 81 in the route searching means 73 It is possible to generate a movement route not including

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-mentioned embodiment, and may be carried out in various different embodiments within the range of the technical idea described in the claim. Also, the effects described in the embodiment are not limited to this.

上記実施形態では、管理装置102に接続された目標対象物検出センサ104を用いて目標対象物Mを検出している。しかしながら、これに限定されるものではなく、撮像部3で取得した撮像画像を画像解析することにより、目標対象物Mの位置を推定してもよい。例えば、撮像画像の各フレームを画像処理して目標対象物の画像領域を抽出する処理を行う。この際、既知の従来技術(特開2006−146551号公報を参照)であるオプティカルフロー法、ブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器等を用いて目標対象物の画像領域(人物領域)を抽出する。次に、当該抽出された画像領域の位置に基づいて目標対象物と自律移動ロボット1との距離を推定する。具体的には、抽出した目標対象物の画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び目標対象物の頭頂部のy座標位置を当該対応表に照らし合わせて自律移動ロボット1との距離を推定する。しかし、これに限らず、抽出した目標対象物の頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された目標対象物の頭部の大きさを当該対応表に照らし合わせて自律移動ロボット1との距離を推定してもよい。   In the above embodiment, the target object M is detected using the target object detection sensor 104 connected to the management device 102. However, the present invention is not limited to this, and the position of the target object M may be estimated by performing image analysis on the captured image acquired by the imaging unit 3. For example, each frame of the captured image is subjected to image processing to extract an image area of the target object. At this time, a discriminator based on optical flow method and boosting learning (for example, face detection method using AdaBoost-based discriminator using Haar-like features) which is a known prior art (refer to JP 2006-146551 A) The image area (person area) of the target object is extracted by using, for example. Next, the distance between the target object and the autonomous mobile robot 1 is estimated based on the position of the extracted image area. Specifically, a correspondence table of the y coordinate position (in the captured image) and the distance of the top of the image area of the extracted target object is created for each flight height in advance, and the current flight height and the target object The y-coordinate position of the top of the head is compared with the correspondence table to estimate the distance to the autonomous mobile robot 1. However, not limited to this, the distance may be calculated from the size of the head of the extracted target object. That is, a correspondence table of head size and distance is prepared beforehand, and the extracted head target size is compared with the correspondence table to estimate the distance to the autonomous mobile robot 1 It is also good.

また、自律移動ロボット1に撮像部3としてカラーカメラの代わりに距離画像センサを搭載して、当該距離画像センサから取得した距離画像を用いて、既知の移動物体抽出技術により目標対象物を抽出して、抽出した目標対象物と自律移動ロボット1との距離値と自己位置とから目標対象物の位置を推定してもよい。また、自律移動ロボット1にレーザスキャナを搭載し、当該レーザスキャナの出力値と自己位置とを用いて目標対象物の位置を推定してもよい。   Further, a distance image sensor is mounted on the autonomous mobile robot 1 as the imaging unit 3 instead of a color camera, and a target object is extracted by a known moving object extraction technique using a distance image acquired from the distance image sensor The position of the target object may be estimated from the distance value between the extracted target object and the autonomous mobile robot 1 and the self position. Alternatively, a laser scanner may be mounted on the autonomous mobile robot 1, and the position of the target object may be estimated using the output value of the laser scanner and the self position.

また、上記実施形態では、制御部7において位置推定処理、速度推定処理、経路探索処理、移動制御処理(経路追従制御及び復帰制御)の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律移動ロボット1は、PCによって行われた位置推定処理、速度推定処理、経路探索処理、移動制御処理によって得られた速度指令値を無線通信又は有線通信によりPCから受信し、当該速度指令値に基づいてモータ4の回転数を制御することにより、目的の位置に飛行するようにしてもよい。このように、外部PCを用いて上記の一連の処理を分担することにより、自律移動ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。   Further, in the above embodiment, the control unit 7 performs a series of processing of position estimation processing, speed estimation processing, route search processing, and movement control processing (route following control and return control). However, the present invention is not limited to this, and a control PC (not shown) may be prepared, and the PC may execute the series of processes. That is, the autonomous mobile robot 1 receives the speed command value obtained by the position estimation process, the speed estimation process, the route search process, and the movement control process performed by the PC from the PC by wireless communication or wire communication, and the speed command It may be made to fly to the target position by controlling the number of rotations of the motor 4 based on the value. Thus, the CPU processing load on the autonomous mobile robot 1 can be reduced by sharing the above-described series of processing using an external PC, and consequently, battery consumption can also be suppressed.

1 自律移動ロボット、2(2a〜2d) ロータ、3 撮像部、4(4a〜4d) モータ、5 距離検出センサ、6 位置検出センサ、7 制御部、8 記憶部、9 通信部、71 位置推定手段、72 経路探索手段、72 速度推定手段、73 経路探索手段、74 移動制御手段、81 移動履歴情報、82 第1閾値、83 第2閾値、84 ボクセル情報、85 移動空間グラフ情報、86 各種パラメータ、100 警備センタ、102 管理装置、104 目標対象物検出センサ、110 情報通信網。   Reference Signs List 1 autonomous mobile robot, 2 (2a to 2d) rotor, 3 imaging unit, 4 (4a to 4d) motor, 5 distance detection sensor, 6 position detection sensor, 7 control unit, 8 storage unit, 9 communication unit, 71 position estimation Means, 72 path search means, 72 speed estimation means, 73 path search means, 74 movement control means, 81 movement history information, 82 first threshold, 83 second threshold, 84 voxel information, 85 movement space graph information, 86 various parameters , 100 security center, 102 management device, 104 target object detection sensor, 110 information communication network.

Claims (2)

移動空間内に設定された移動経路に基づいて移動制御する移動制御手段を有する自律飛行型の自律移動ロボットであって、
前記移動空間を複数のボクセルに分割し、前記ボクセルの各々について自律移動ロボットの移動の障害となる度合いを示すボクセルコスト値を関連付けて記憶すると共に、自律移動ロボットが現在までに移動した前記移動空間内の座標群からなる移動履歴情報を記憶した記憶部と、
自律移動ロボットの自己位置を推定すると共に、該自己位置の推定精度を求め、該自己位置と該推定精度とを関連付けて前記移動履歴情報として記憶する位置推定手段と、
前記ボクセルコスト値に基づいて、移動目標位置に到達するまでに通過する前記ボクセルの前記ボクセルコスト値を加算した総コスト値が最も小さくなる前記移動経路を探索する経路探索手段と、
を備え、
前記移動制御手段は、自律移動ロボットの現在の自己位置における推定精度が第1閾値以下となる推定困難位置であるとき、該推定困難位置における該推定精度が低いほど該推定困難位置に該当する前記ボクセルの前記ボクセルコスト値をより高い値に変更する共に、前記移動履歴情報として記憶されている座標群の中で推定困難位置ではない座標に前記移動目標位置を設定し、前記経路探索手段にて探索された前記移動経路に基づいて自律移動ロボットを復帰制御することを特徴とする自律移動ロボット。
An autonomous flying robot having a movement control means for performing movement control based on a movement route set in the movement space, comprising:
The movement space is divided into a plurality of voxels, voxel cost values indicating degrees of obstacles to movement of the autonomous mobile robot are stored in association with each of the voxels, and the movement space in which the autonomous mobile robot has moved so far A storage unit storing movement history information consisting of a group of coordinates in
Position estimation means for estimating the self-position of the autonomous mobile robot, obtaining the estimation precision of the self-position, associating the self-position with the estimation precision, and storing it as the movement history information;
Path search means for searching for the movement path having the smallest total cost value obtained by adding the voxel cost value of the voxels passing until reaching the movement target position based on the voxel cost value;
Equipped with
The movement control means corresponds to the estimation difficult position as the estimation accuracy at the estimation difficult position is lower when the estimation accuracy at the current self position of the autonomous mobile robot is at the first threshold or less. both changes the voxel cost value of the voxel to a higher value, and sets the movement target position in not name coordinate is estimated difficult position in the coordinate group that has been stored as the movement history information, said route search means An autonomous mobile robot, characterized in that return control of the autonomous mobile robot is performed based on the moving route searched in the above .
請求項1に記載の自律移動ロボットであって、
前記記憶部は、前記移動履歴情報として前記位置推定手段にて求められた推定精度を各座標に対応付けて記憶し、
前記復帰制御は、前記移動履歴情報に記憶されている座標群の中で前記第1閾値より大きい第2閾値以上の推定精度をもつ座標であって前記現在の自己位置から最も近い座標を前記移動目標位置として前記復帰制御することを特徴とする自律移動ロボット。
The autonomous mobile robot according to claim 1, wherein
The storage unit stores the estimation accuracy obtained by the position estimation means as the movement history information in association with each coordinate,
The return control is a coordinate having an estimation accuracy equal to or greater than a second threshold larger than the first threshold in the group of coordinates stored in the movement history information , and the coordinate closest to the current self position is moved An autonomous mobile robot characterized in that the return control is performed as a target position .
JP2015053078A 2015-03-17 2015-03-17 Autonomous mobile robot Active JP6527726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015053078A JP6527726B2 (en) 2015-03-17 2015-03-17 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015053078A JP6527726B2 (en) 2015-03-17 2015-03-17 Autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2016173709A JP2016173709A (en) 2016-09-29
JP6527726B2 true JP6527726B2 (en) 2019-06-05

Family

ID=57008189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015053078A Active JP6527726B2 (en) 2015-03-17 2015-03-17 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP6527726B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272727B (en) 2016-04-01 2022-02-01 松下电器(美国)知识产权公司 Autonomous moving body
JP2017188067A (en) * 2016-04-01 2017-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Autonomous mobile body
US10671091B2 (en) * 2017-03-03 2020-06-02 Alpine Electronics, Inc. Flight control device and flight control method for unmanned aerial vehicle
JP6957110B2 (en) * 2017-03-03 2021-11-02 アルパイン株式会社 Flight control device and flight control method for unmanned aerial vehicles
JP6943674B2 (en) * 2017-08-10 2021-10-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Mobiles, control methods and control programs
JP7143103B2 (en) * 2018-03-30 2022-09-28 セコム株式会社 Route display device
JP7097769B2 (en) * 2018-07-25 2022-07-08 三菱電機株式会社 Wireless communication system
US20220413517A1 (en) * 2019-06-27 2022-12-29 Sony Group Corporation Moving body, control method, and program
JP2023093267A (en) * 2021-12-22 2023-07-04 株式会社日立産機システム Work management system and method for managing work

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059391A (en) * 2006-08-31 2008-03-13 Sanyo Electric Co Ltd Remote control mobile object
JP4658892B2 (en) * 2006-10-02 2011-03-23 本田技研工業株式会社 Mobile robot, mobile robot control device, mobile robot control method, and mobile robot control program
JP4825159B2 (en) * 2007-03-29 2011-11-30 富士通株式会社 Wireless positioning system, moving object, and program
JP5304534B2 (en) * 2009-08-21 2013-10-02 トヨタ自動車株式会社 Self-position estimation apparatus, self-position estimation method and program

Also Published As

Publication number Publication date
JP2016173709A (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6527726B2 (en) Autonomous mobile robot
JP6029446B2 (en) Autonomous flying robot
JP6664162B2 (en) Autonomous flying robot
US11592844B2 (en) Image space motion planning of an autonomous vehicle
JP6599143B2 (en) Autonomous mobile robot
JP6235213B2 (en) Autonomous flying robot
JP6195450B2 (en) Autonomous flying robot
JP6140458B2 (en) Autonomous mobile robot
JP5990453B2 (en) Autonomous mobile robot
WO2018086133A1 (en) Methods and systems for selective sensor fusion
CN113168186A (en) Collision avoidance system, depth imaging system, vehicle, map generator and method thereof
JP6014485B2 (en) Autonomous flying robot
JP2015006874A (en) Systems and methods for autonomous landing using three dimensional evidence grid
JP6014484B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
JP6758068B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
JP2017182692A (en) Autonomous Mobile Robot
JP6758069B2 (en) Autonomous flying robot
JP6595284B2 (en) Autonomous mobile robot
JP6664258B2 (en) Self-location estimation device
Upadhyay et al. Multiple Drone Navigation and Formation Using Selective Target Tracking-Based Computer Vision. Electronics 2021, 10, 2125

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190513

R150 Certificate of patent or registration of utility model

Ref document number: 6527726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250