JP6599143B2 - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP6599143B2
JP6599143B2 JP2015131974A JP2015131974A JP6599143B2 JP 6599143 B2 JP6599143 B2 JP 6599143B2 JP 2015131974 A JP2015131974 A JP 2015131974A JP 2015131974 A JP2015131974 A JP 2015131974A JP 6599143 B2 JP6599143 B2 JP 6599143B2
Authority
JP
Japan
Prior art keywords
target object
movement
mobile robot
autonomous mobile
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015131974A
Other languages
Japanese (ja)
Other versions
JP2017016359A (en
Inventor
晴之 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015131974A priority Critical patent/JP6599143B2/en
Publication of JP2017016359A publication Critical patent/JP2017016359A/en
Application granted granted Critical
Publication of JP6599143B2 publication Critical patent/JP6599143B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動空間内を自律的に移動する自律移動ロボットに関する。   The present invention relates to an autonomous mobile robot that autonomously moves in a moving space.

従来、自律的に移動して監視領域に侵入した侵入者等の目標対象物の画像を取得する自律移動ロボットが提案されている。   Conventionally, an autonomous mobile robot that autonomously moves and acquires an image of a target object such as an intruder who has entered a monitoring area has been proposed.

例えば、特許文献1には、目標対象物から所定の離間距離だけ離れた周囲の位置に複数の移動候補位置を設定し、これらの移動候補位置の中から現在位置に近い移動候補位置を移動目標位置として設定し、現在位置から当該移動目標位置に至る飛行経路を生成し、当該飛行経路に沿うよう飛行制御される自律移動ロボットが開示されている。   For example, in Patent Document 1, a plurality of movement candidate positions are set at peripheral positions separated from a target object by a predetermined separation distance, and a movement candidate position close to the current position is selected from these movement candidate positions as a movement target. An autonomous mobile robot that is set as a position, generates a flight path from the current position to the movement target position, and is flight-controlled along the flight path is disclosed.

さらに、特許文献2には、これまで目標対象物をカメラで撮像していない方向から撮像できる移動候補位置が移動目標位置として設定され易いようにすることで、目標対象物をできるだけ様々な角度からの撮像を可能にする自律移動ロボットが開示されている。   Further, in Patent Document 2, the target object can be viewed from various angles as much as possible by making it easy to set a movement candidate position that can be imaged from a direction in which the target object has not been captured by the camera. An autonomous mobile robot that enables imaging is disclosed.

特開2014−142828号公報JP 2014-142828 A 特開2014−119901号公報JP 2014-119901 A

しかしながら、上記の従来技術は、移動目標位置の設定に際し、移動空間内に存在する障害物による隠蔽(オクルージョン)を考慮していないため、設定された移動目標位置が障害物に隠蔽されることがない位置、すなわち目標対象物を撮像できる位置であるとは限らない。   However, since the above-described conventional technology does not consider concealment (occlusion) by an obstacle existing in the movement space when setting the movement target position, the set movement target position may be hidden by the obstacle. It is not always a position where the target object can be imaged.

そこで、本発明は、目標対象物に対して撮像等の所定の機能を発揮できる位置を移動目標位置として設定することにより、目標対象物を撮像しながら追従飛行することを可能とすることを目的とする。   Accordingly, the present invention has an object of enabling a follow-up flight while imaging a target object by setting a position where a predetermined function such as imaging can be performed on the target object as a movement target position. And

本発明の1つの態様は、移動空間内を自律移動し、目標対象物に対して所定の機能を発揮する機能部を備えた自律移動ロボットであって、前記移動空間を構成する複数の部分空間毎に当該移動空間における位置を示した空間情報と、前記部分空間毎に前記機能の障害となるか否か及び前記機能の障害となる程度を示した機能障害度を示した属性情報と、前記目標対象物の位置を示す目標対象物位置とを記憶した記憶部と、自律移動ロボットの現在の自己位置及び姿勢を推定する位置推定手段と、移動目標位置を設定して前記自己位置から前記移動目標位置に至る移動経路を算出する経路探索手段と、前記移動経路に沿って自律移動ロボットが移動するよう制御する移動制御手段と、を有し、前記経路探索手段は、前記空間情報及び前記属性情報から求まる前記機能の障害となる前記部分空間の位置と前記目標対象物位置との位置関係から前記機能障害度を用いた評価関数によって得られた評価値に応じて、前記機能が発揮され易い前記移動空間における位置ほど前記移動目標位置に設定され易くなるよう処理することを特徴とする自律移動ロボットである。 One aspect of the present invention is an autonomous mobile robot including a functional unit that autonomously moves in a moving space and exhibits a predetermined function with respect to a target object, and a plurality of partial spaces that constitute the moving space Spatial information indicating the position in the moving space for each, attribute information indicating whether or not it becomes a failure of the function for each partial space and the degree of functional failure that indicates the degree of failure of the function , A storage unit that stores a target object position indicating the position of the target object, position estimation means for estimating the current self position and posture of the autonomous mobile robot, and a movement target position to set the movement from the self position Route search means for calculating a movement route to a target position, and movement control means for controlling the autonomous mobile robot to move along the movement route, wherein the route search means includes the spatial information and the attribute. Affection Depending on the evaluation value obtained by the evaluation function using the dysfunction of the positional relationship between the position and the desired object position of the subspace to be the failure of the function obtained from the function is exhibited easily the An autonomous mobile robot is characterized in that processing is performed such that a position in a moving space is more easily set to the target movement position .

ここで、前記部分空間は前記移動空間を所定単位の大きさで分割した単位空間であることが好適である。   Here, the partial space is preferably a unit space obtained by dividing the moving space by a predetermined unit size.

また、前記記憶部は、前記機能部の有効範囲を示す機能条件情報を更に記憶し、前記経路探索手段は、前記機能条件情報と前記目標対象物位置とを用いて前記目標対象物が前記有効範囲内となる位置に前記移動目標位置を設定することが好適である。   The storage unit further stores functional condition information indicating an effective range of the functional unit, and the route search means uses the functional condition information and the target target position to determine whether the target target is the effective target. It is preferable to set the movement target position at a position within the range.

また、前記記憶部は、前記目標対象物の特徴部位について前記目標対象物位置からの相対位置を示した特徴位置を更に記憶し、前記経路探索手段は、前記目標対象物位置と前記特徴位置とに基づいて、前記特徴部位に対して前記機能を発揮可能な位置に前記移動目標位置を設定することが好適である。   Further, the storage unit further stores a feature position indicating a relative position from the target object position with respect to a feature part of the target object, and the route search means includes the target object position, the feature position, and It is preferable that the movement target position is set at a position where the function can be performed with respect to the characteristic part.

本発明によれば、自律移動ロボットの機能を発揮できる位置を移動目標位置として、当該移動目標位置に向かう移動経路で移動することができる自律移動ロボットを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the position which can exhibit the function of an autonomous mobile robot can be provided as a movement target position, and the autonomous mobile robot which can move on the movement path | route which goes to the said movement target position can be provided.

本発明の実施の形態における自律移動ロボットの構成を示す図である。It is a figure which shows the structure of the autonomous mobile robot in embodiment of this invention. 本発明の実施の形態における自律移動ロボットシステムの構成を示す図である。It is a figure which shows the structure of the autonomous mobile robot system in embodiment of this invention. 本発明の実施の形態における自律移動ロボットの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the autonomous mobile robot in embodiment of this invention. 本発明の実施の形態における空間情報の例を示す図である。It is a figure which shows the example of the spatial information in embodiment of this invention. 本発明の実施の形態における属性情報の例を示す図である。It is a figure which shows the example of the attribute information in embodiment of this invention. 本発明の実施の形態における移動経路の生成に用いられるボクセルのグラフ構造を示す図である。It is a figure which shows the graph structure of the voxel used for the production | generation of the movement path | route in embodiment of this invention. 本発明の実施の形態における移動目標位置の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the movement target position in embodiment of this invention. 本発明の実施の形態における移動目標位置の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the movement target position in embodiment of this invention. 本発明の実施の形態における移動目標位置の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the movement target position in embodiment of this invention. 本発明の実施の形態におけるローカル目標の算出処理を説明する図である。It is a figure explaining the calculation process of the local target in embodiment of this invention.

本発明の実施の形態における自律移動ロボット1は、図1の概観図に示すように、クアッドロータ型の小型無人ヘリコプタである。なお、本発明の適用範囲は、クアッドロータ型の小型無人ヘリコプタに限定されるものではなく、シングルロータ型の小型無人ヘリコプタや、自律移動する走行型のロボットについても同様に適用することができる。   The autonomous mobile robot 1 according to the embodiment of the present invention is a quad-rotor type small unmanned helicopter as shown in the general view of FIG. The scope of application of the present invention is not limited to a quad-rotor type small unmanned helicopter, but can be similarly applied to a single-rotor type small unmanned helicopter and a traveling robot that moves autonomously.

自律移動ロボット1は、図2のシステム構成図に示すように、外部の警備センタ100や管理装置102と通信し、監視空間(移動空間)内に存在する所定の移動物体を目標対象物Mとして追跡し、当該目標対象物Mに対して所定の機能を発揮するように構成されている。目標対象物Mとなる移動物体は、例えば、監視領域内に侵入した人物(賊等)や車両等である。本実施の形態では、所定の機能として、目標対象物Mを撮像する機能を例に説明するが、特に限定されるものではなく、目標対象物Mに対して音を発したり、発光による警告を行ったりする等の機能であってもよい。   As shown in the system configuration diagram of FIG. 2, the autonomous mobile robot 1 communicates with the external security center 100 and the management device 102, and uses a predetermined moving object existing in the monitoring space (moving space) as the target object M. It is configured to track and to exhibit a predetermined function for the target object M. The moving object that is the target object M is, for example, a person (such as a bandit) or a vehicle that has entered the monitoring area. In the present embodiment, a function for imaging the target object M will be described as an example of the predetermined function. However, the function is not particularly limited, and a sound is emitted from the target object M or a warning by light emission is given. It may be a function such as performing.

警備センタ100と管理装置102とはインターネット等の情報通信網110を介して情報伝達可能に接続される。また、自律移動ロボット1と管理装置102は、無線通信等によって情報伝達可能に接続される。   The security center 100 and the management device 102 are connected via an information communication network 110 such as the Internet so that information can be transmitted. The autonomous mobile robot 1 and the management device 102 are connected so as to be able to transmit information by wireless communication or the like.

警備センタ100は、管理装置102を介して自律移動ロボット1と通信を行い、自律移動ロボット1によって撮像された目標対象物Mの撮像画像を受信する。警備センタ100は、撮像画像に対して画像処理を行い、警備センタ100にて異常監視している管理者等(図示しない)に警告を発するような機能を備えていてもよい。また、管理装置102から目標対象物Mの位置(座標)に関する情報を受信し、当該目標対象物Mと自律移動ロボット1によって撮像された撮像画像とを関連付けて管理するというような機能を備えてもよい。   The security center 100 communicates with the autonomous mobile robot 1 via the management device 102 and receives a captured image of the target object M captured by the autonomous mobile robot 1. The security center 100 may have a function of performing image processing on a captured image and issuing a warning to an administrator (not shown) who is monitoring an abnormality at the security center 100. Further, it has a function of receiving information on the position (coordinates) of the target object M from the management device 102 and managing the target object M and the captured image captured by the autonomous mobile robot 1 in association with each other. Also good.

管理装置102は、地面や壁面等に設置された固定型の目標対象物検出センサ104(104a,104b・・・)を備え、目標対象物Mの位置を検知する。目標対象物検出センサ104は、例えば、レーザセンサとすることができる。レーザセンサは、一定の角度サンプル間隔の角度毎にレーザを二次元的にスキャンすることによって、地面(又は床面)から一定の高さの水平面における検知範囲内に存在する物体(障害物)との距離情報を極座標値として取得する。レーザセンサは、放射状にレーザ光である探査信号を走査し、物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、レーザセンサの設置位置の座標及び探査信号を送信した方向と算出した距離から当該物体の位置の極座標値を求め、当該極座標値から3次元の直交座標値(Xt,Yt,Zt)を求める。管理装置102は、目標対象物検出センサ104によって求められた物体の位置を目標対象物Mの位置として自律移動ロボット1へ送信する。自律移動ロボット1は、目標対象物Mの位置を受信すると、その位置に基づいて自らの移動経路を算出し、当該移動経路に沿って移動する。なお、管理装置102は、レーザセンサの検知範囲が重複する領域に存在する目標対象物Mの同一性を検証することで複数のレーザセンサの検知範囲に渡る目標対象物Mの追跡を行う。すなわち、レーザセンサ104aの検知範囲に存在する目標対象物Mがレーザセンサ104bの検知範囲に移動したとしても、管理装置102は、当該目標対象物Mが同一の物体であると判定することができる。 The management apparatus 102 includes a fixed target object detection sensor 104 (104a, 104b,...) Installed on the ground or a wall surface, and detects the position of the target object M. The target object detection sensor 104 can be a laser sensor, for example. The laser sensor scans the laser two-dimensionally at a certain angular sample interval, thereby detecting objects (obstacles) existing within a detection range in a horizontal plane at a certain height from the ground (or floor surface). Is obtained as polar coordinate values. The laser sensor scans the exploration signal, which is laser light radially, receives the exploration signal reflected back from the object, calculates the distance to the object from the time difference between transmission and reception, and installs the laser sensor Then, the polar coordinate value of the position of the object is obtained from the coordinates in which the search signal is transmitted and the calculated distance, and the three-dimensional orthogonal coordinate value (X t , Y t , Z t ) is obtained from the polar coordinate value. The management apparatus 102 transmits the position of the object obtained by the target object detection sensor 104 to the autonomous mobile robot 1 as the position of the target object M. When the autonomous mobile robot 1 receives the position of the target object M, the autonomous mobile robot 1 calculates its own movement path based on the position, and moves along the movement path. The management apparatus 102 tracks the target object M over the detection ranges of a plurality of laser sensors by verifying the identity of the target object M existing in an area where the detection ranges of the laser sensors overlap. That is, even if the target object M existing in the detection range of the laser sensor 104a moves to the detection range of the laser sensor 104b, the management apparatus 102 can determine that the target object M is the same object. .

以下、図1の概観図及び図3の機能ブロック図を参照して、自律移動ロボット1の構成及び機能について説明する。   Hereinafter, the configuration and functions of the autonomous mobile robot 1 will be described with reference to the general view of FIG. 1 and the functional block diagram of FIG.

自律移動ロボット1は、図1に示すように、4枚のロータ(プロペラ)2(2a〜2d)を一平面上に有する。各ロータ2は、バッテリ(二次電池:図示しない)により駆動されるモータ4(4a〜4d)を用いて回転させられる。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、自律移動ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、各ロータ2の回転数(fa〜fd)を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。例えば、機体をヨー方向に回転させたいときは、前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与えればよい。   As shown in FIG. 1, the autonomous mobile robot 1 has four rotors (propellers) 2 (2a to 2d) on one plane. Each rotor 2 is rotated using a motor 4 (4a to 4d) driven by a battery (secondary battery: not shown). Generally, in a single rotor type helicopter, the azimuth angle is maintained by canceling the counter torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quad-rotor type helicopter such as the autonomous mobile robot 1, counter-torque is canceled by using a rotor 2 that rotates in different directions in front and rear and left and right. Then, by controlling the number of rotations (fa to fd) of each rotor 2, various movements and adjustments of the posture can be performed. For example, when it is desired to rotate the airframe in the yaw direction, a difference may be given to the rotational speeds of the front and rear rotors 2a and 2c and the left and right rotors 2d and 2b.

撮像部3は、例えばレンズなどの光学系および所定画素(例えば640×480画素)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、飛行空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施の形態では、撮像部3は、その光軸が自律移動ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を視野角φにおいて撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して管理装置102に送信されたりする。   The imaging unit 3 includes a two-dimensional image sensor having an optical system such as a lens and a two-dimensional array element such as a CCD or CMOS with predetermined pixels (for example, 640 × 480 pixels), and captures captured images of the flight space for a predetermined time. This is a so-called color camera that is acquired at intervals. In the present embodiment, the imaging unit 3 is installed in the housing portion so that its optical axis captures the front direction of the autonomous mobile robot 1 and is obliquely below by a predetermined depression angle θ from the horizontal plane (XY plane). It is installed to image the space at a viewing angle φ. The acquired captured image is output to the control unit 7 described later, and is stored in the storage unit 8 by the control unit 7 or transmitted to the management apparatus 102 via the communication unit 9 described later.

距離検出センサ5は、自律移動ロボット1の周囲に存在する障害物と自律移動ロボット1との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施の形態では、距離検出センサ5としてマイクロ波センサを備える。マイクロ波センサは、空間にマイクロ波を放出し、その反射波を検知することによって、自律移動ロボット1の周囲にある物体を探知し、その物体までの距離を求める。距離検出センサ5は、例えば、自律移動ロボット1の前方に向けて設け、目標対象物Mまでの距離を測定するために用いることができる。また、距離検出センサ5は、例えば、自律移動ロボット1の下部に下向きに設け、地面との距離(高度)を測定するために用いることもできる。また、距離検出センサ5は、例えば、撮像部3の光軸方向に向けて設け、撮像部3の撮像対象物である目標対象物Mまでの距離を測定するために用いることができる。   The distance detection sensor 5 is a sensor that detects a distance between an obstacle existing around the autonomous mobile robot 1 and the autonomous mobile robot 1 and acquires a relative position of the obstacle present in the sensor detection range. is there. In the present embodiment, a microwave sensor is provided as the distance detection sensor 5. The microwave sensor emits a microwave to space and detects the reflected wave, thereby detecting an object around the autonomous mobile robot 1 and obtaining a distance to the object. The distance detection sensor 5 is provided, for example, toward the front of the autonomous mobile robot 1 and can be used to measure the distance to the target object M. In addition, the distance detection sensor 5 can be provided, for example, downward in the lower part of the autonomous mobile robot 1 and used to measure the distance (altitude) from the ground. Further, the distance detection sensor 5 is provided, for example, in the direction of the optical axis of the imaging unit 3 and can be used to measure the distance to the target object M that is the imaging object of the imaging unit 3.

位置検出センサ6は、自律移動ロボット1の現在位置を取得するためのセンサである。位置検出センサ6は、例えば、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する。位置検出センサ6は、複数の航法衛星(人工衛星)から送信される航法信号を受信して制御部7へ入力する。   The position detection sensor 6 is a sensor for acquiring the current position of the autonomous mobile robot 1. The position detection sensor 6 receives radio waves (navigation signals) transmitted from navigation satellites (artificial satellites) such as GNSS (Global Navigation Satellite System). The position detection sensor 6 receives navigation signals transmitted from a plurality of navigation satellites (artificial satellites) and inputs them to the control unit 7.

なお、位置検出センサ6は、レーザスキャナ、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の従来技術により自己位置を得るための情報を取得するものとしてもよい。   Note that the position detection sensor 6 may acquire information for obtaining a self-position by a known conventional technique using another sensor such as a laser scanner, a gyro sensor, an electronic compass, or an atmospheric pressure sensor.

通信部9は管理装置102との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施の形態では、撮像部3によって取得した撮像画像を通信部9により管理装置102に送信し、当該撮像画像を管理装置102から警備センタ100に送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。また、通信部9は、管理装置102から目標対象物Mの位置(座標:Xt,Yt,Zt)を受信することにより、後述するような移動経路の設定を可能にする。 The communication unit 9 is a communication module for performing wireless communication with the management apparatus 102 through, for example, a wireless LAN or a mobile phone line. In the present embodiment, a captured image acquired by the imaging unit 3 is transmitted to the management device 102 by the communication unit 9, and the captured image is transmitted from the management device 102 to the security center 100, so that a security guard or the like can invade remotely. It is possible to monitor the person. In addition, the communication unit 9 receives the position (coordinates: X t , Y t , Z t ) of the target object M from the management device 102, thereby enabling setting of a movement route as described later.

記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部7との間でこれらの情報を入出力する。各種データには、目標対象物位置81、空間情報82、属性情報83、移動空間グラフ情報84、離間条件85、各種パラメータ86等の制御部7の各処理に用いられる情報、各センサ等の出力値及び撮像画像等が含まれる。   The storage unit 8 is an information storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The storage unit 8 stores various programs and various data, and inputs / outputs such information to / from the control unit 7. Various types of data include target object position 81, spatial information 82, attribute information 83, moving space graph information 84, separation condition 85, various parameters 86 and other information used for each process of control unit 7, and outputs of sensors and the like. Values, captured images, and the like.

目標対象物位置81は、管理装置102から受信した目標対象物Mの位置情報(座標:Xt,Yt,Zt)である。本実施の形態では、目標対象物位置81を目標対象物Mの足元位置、すなわち目標対象物Mが地面(床面)に接している位置とする。制御部7は、通信部9を介して目標対象物Mの位置を受信すると目標対象物位置81として記憶部8に記憶させる。なお、管理装置102は、目標対象物Mの位置(座標:Xt,Yt,Zt)の時間変化に基づいて目標対象物Mの姿勢(例えば、目標対象物Mの正面方向を示した情報)を推定し、目標対象物位置81として記憶してもよい。 The target object position 81 is position information (coordinates: X t , Y t , Z t ) of the target object M received from the management apparatus 102. In the present embodiment, the target object position 81 is a foot position of the target object M, that is, a position where the target object M is in contact with the ground (floor surface). When receiving the position of the target object M via the communication unit 9, the control unit 7 stores the target object position 81 in the storage unit 8. The management apparatus 102 indicates the posture of the target object M (for example, the front direction of the target object M) based on the time change of the position of the target object M (coordinates: X t , Y t , Z t ). Information) may be estimated and stored as the target object position 81.

空間情報82は、飛行空間をボクセル空間として複数のボクセル(単位空間)に分割して飛行空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶される情報である。本実施の形態では、飛行空間を所定単位の大きさ(例えば15cm×15cm×15cm)のボクセルに等分割し、図4に示すように、ボクセル毎に識別子であるボクセルIDと、飛行空間におけるボクセルの位置(座標)とを対応付けて空間情報82として記憶する。   The space information 82 is information representing the structure of obstacles in the flight space by dividing the flight space into a plurality of voxels (unit spaces) as a voxel space, and is set in advance by an administrator or the like and stored in the storage unit 8. Information. In the present embodiment, the flight space is equally divided into voxels of a predetermined unit size (for example, 15 cm × 15 cm × 15 cm), and as shown in FIG. 4, the voxel ID that is an identifier for each voxel and the voxel in the flight space Are stored as spatial information 82 in association with each other.

属性情報83は、各ボクセルの属性を示す情報である。属性は、「移動障害属性」と「機能障害属性」を含む。本実施の形態では、図5に示すように、ボクセル毎に識別子であるボクセルIDと各ボクセルの属性とを対応付けて属性情報83として記憶する。   The attribute information 83 is information indicating the attribute of each voxel. The attributes include “movement failure attribute” and “functional failure attribute”. In the present embodiment, as shown in FIG. 5, the voxel ID that is the identifier and the attribute of each voxel are associated with each other and stored as attribute information 83.

移動障害属性は、自律移動ロボット1の移動の障害となるか否かを示した属性である。例えば、建造物等の障害物に位置するボクセルは、自律移動ロボット1が移動できない空間として移動障害属性として設定される。また、障害物の近くに存在する空間に位置するボクセルについても、当該障害物に必要以上に接近しないよう移動障害属性として設定されるものとする。なお、本明細書では以下において障害物に位置するボクセルを「占有ボクセル」、障害物の近くに存在する空間に位置するボクセルを「近接ボクセル」、それ以外のボクセルを「自由ボクセル」と称する。   The movement obstacle attribute is an attribute indicating whether or not the movement of the autonomous mobile robot 1 becomes an obstacle. For example, a voxel located at an obstacle such as a building is set as a movement obstacle attribute as a space where the autonomous mobile robot 1 cannot move. In addition, voxels located in a space near the obstacle are also set as movement obstacle attributes so as not to approach the obstacle more than necessary. In the present specification, the voxel located in the obstacle is referred to as “occupied voxel”, the voxel located in the space near the obstacle is referred to as “proximity voxel”, and the other voxels are referred to as “free voxels”.

機能障害属性は、自律移動ロボット1の有する機能の障害となるか否かを示した属性である。例えば、自律移動ロボット1が撮像機能を有する場合、透光性を有するボクセルであれば機能障害属性とならないが、遮光性を有するボクセルであれば機能障害属性となる。   The functional failure attribute is an attribute indicating whether or not the functional failure of the autonomous mobile robot 1 is a failure. For example, when the autonomous mobile robot 1 has an imaging function, a voxel having translucency does not have a functional failure attribute, but a voxel having a light shielding property has a functional failure attribute.

例えば、一般的な壁や屋根等の遮光性を有する障害物は、移動障害属性であり、かつ、機能障害属性である。一方、ガラス窓、ネット、フェンス等の透光性を有する障害物は、移動障害属性であるが、機能障害属性ではない。また、霧や煙等は、機能障害属性であるが、移動障害属性ではない。   For example, a light-blocking obstacle such as a general wall or roof is a movement obstacle attribute and a function obstacle attribute. On the other hand, an obstacle having translucency such as a glass window, a net, and a fence is a movement obstacle attribute, but is not a functional obstacle attribute. Further, fog and smoke are functional disorder attributes, but are not movement disorder attributes.

各ボクセルには、後述する経路探索手段73にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値が関連付けて記憶部8に登録されるものとする。ボクセルコスト値は、占有ボクセルにおいて最大値をとり、占有ボクセルからの距離が大きくなるほど小さな値となるように設定される。例えば、ボクセルコスト値=exp{−λ・(占有ボクセルからの距離)}の計算式からボクセルコスト値を算出することが好適である。ここでλは実験によって求めたパラメータである。なお、自律移動ロボット1が移動空間における予め定めた移動可能空間の外に出ないようにするため、移動可能空間とその外部との境界となるボクセルを占有ボクセルとみなして、当該ボクセルのボクセルコスト値を最大値と設定することが好適である。   Each voxel is registered in the storage unit 8 in association with a voxel cost value indicating the degree of occupancy so that it can be used when a travel route is generated by the route search means 73 described later. The voxel cost value takes a maximum value in the occupied voxel and is set to be smaller as the distance from the occupied voxel increases. For example, it is preferable to calculate the voxel cost value from a calculation formula of voxel cost value = exp {−λ · (distance from occupied voxel)}. Here, λ is a parameter obtained by experiment. In order to prevent the autonomous mobile robot 1 from going out of the predetermined movable space in the moving space, the voxel serving as the boundary between the movable space and the outside is regarded as the occupied voxel, and the voxel cost of the voxel is concerned. It is preferable to set the value as the maximum value.

移動空間グラフ情報84は、空間情報82に基づいて作成された3次元グラフ情報である。具体的には、空間情報82に基づいて、各ボクセルの中心位置をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしたグラフ構造からなる情報である。図6は移動空間グラフ情報84のグラフ構造を説明する図であり、飛行空間におけるボクセルの一部(27個)を切り欠いたものである。図6において符号Bで表す個々の立方体はボクセルを表すものである。また、これらのボクセルBの中心位置にある黒又はハッチングにて塗りつぶした球はノードであり、ノード間を連結する点線で表示する線分はエッジである。なお、移動空間グラフ情報84におけるエッジの重みとして、隣接するノード間の距離に基づいて求められる後述する距離コストCMが設定されているものとする。 The movement space graph information 84 is three-dimensional graph information created based on the space information 82. Specifically, based on the spatial information 82, it is information having a graph structure in which the center position of each voxel is a node and a line segment connecting nodes adjacent to the node is an edge. FIG. 6 is a diagram for explaining the graph structure of the moving space graph information 84, in which some (27) voxels in the flight space are cut out. In FIG. 6, each cube represented by a symbol B represents a voxel. Further, a sphere filled with black or hatching at the center position of the voxel B is a node, and a line segment displayed by a dotted line connecting the nodes is an edge. It is assumed that a distance cost C M ( described later) obtained based on the distance between adjacent nodes is set as the edge weight in the moving space graph information 84.

離間条件85は、目標対象物Mに追従飛行するにあたって、自律移動ロボット1と目標対象物Mとの維持すべき位置関係を示す情報である。離間条件85は、自律移動ロボット1の管理者等によって予め設定される。自律移動ロボット1を用いて所定の目標対象物Mを監視する場合、目標対象物Mに近づき、より詳細な撮像画像を取得できる必要がある。しかし、侵入者などの敵対する目標対象物Mから攻撃を受けないようにするためには一定距離以上離間する必要がある。そのため、本実施の形態の自律移動ロボット1は、目標対象物Mの詳細な撮像画像を取得でき(撮像部3の撮像範囲内に目標対象物Mが位置し)、かつ、当該目標対象物Mから攻撃を受け難い距離となるように離間条件85を予め求めて記憶部8に記憶させ、当該離間条件85を満たすように追従飛行するように制御される。離間条件85は、例えば、平面内で目標対象物Mから3mの離間距離、及び、目標対象物Mから3mの離間高度として設定される。また、離間条件85は、ある程度の幅を持たせた範囲を示す条件としてもよい。   The separation condition 85 is information indicating a positional relationship to be maintained between the autonomous mobile robot 1 and the target object M when flying following the target object M. The separation condition 85 is preset by an administrator of the autonomous mobile robot 1 or the like. When the predetermined target object M is monitored using the autonomous mobile robot 1, it is necessary to approach the target object M and acquire a more detailed captured image. However, in order not to be attacked by the target object M that is hostile such as an intruder, it is necessary to be separated by a certain distance or more. Therefore, the autonomous mobile robot 1 of the present embodiment can acquire a detailed captured image of the target object M (the target object M is located within the imaging range of the imaging unit 3), and the target object M The separation condition 85 is obtained in advance so as to be a distance at which it is difficult to receive an attack, and is stored in the storage unit 8, and controlled to follow the flight so as to satisfy the separation condition 85. The separation condition 85 is set, for example, as a separation distance of 3 m from the target object M and a separation altitude of 3 m from the target object M in the plane. Further, the separation condition 85 may be a condition indicating a range having a certain width.

各種パラメータ86は、自律移動ロボット1の制御や機能を発揮させるために必要な他のパラメータである。各種パラメータ86には、例えば、撮像条件情報(機能条件情報)等が含まれる。撮像条件情報は、撮像部3の視野を表す情報である。撮像条件情報として、撮像部3の俯角θ及び視野角φ等が記憶される。撮像条件情報は、撮像部3の特性及び設置角度等に基づいて管理者等によって適宜設定される。なお、自律移動ロボット1に対して撮像部3の撮像方向を変更可能なカメラ制御装置を搭載した場合には、当該カメラ制御装置から俯角θの情報を取得するようにしてもよい。また、視野角φを変更可能な撮像部3を用いた場合には、当該撮像部3から視野角φの情報を取得するようにしてもよい。なお、目標対象物Mに対して発揮する所定の機能を撮像部3による撮像機能とする場合には前述の撮像条件情報を用いるが、撮像機能以外の機能を対象とする場合には撮像条件情報に代わりに機能条件情報とすることができる。機能条件情報は、当該機能が十分に発揮できる範囲を画定するための条件を含むものとする。例えば、目標対象物Mに対して音を発したり、発光による警告を行ったりする等の機能である場合、機能条件情報は、音や光が有効に到達する範囲を特定できる情報を含むものとする。例えば、音や光の放射方向θ’と指向特性を表す指標である半値幅(放射エネルギーが−3dBとなる放射角度)φ’を機能条件情報として設定すればよい。   The various parameters 86 are other parameters necessary for exerting control and functions of the autonomous mobile robot 1. The various parameters 86 include, for example, imaging condition information (functional condition information) and the like. The imaging condition information is information representing the field of view of the imaging unit 3. As the imaging condition information, the depression angle θ and the viewing angle φ of the imaging unit 3 are stored. The imaging condition information is appropriately set by an administrator or the like based on the characteristics of the imaging unit 3, the installation angle, and the like. In addition, when the camera control apparatus which can change the imaging direction of the imaging part 3 is mounted with respect to the autonomous mobile robot 1, you may make it acquire the information of depression angle (theta) from the said camera control apparatus. When the imaging unit 3 that can change the viewing angle φ is used, information on the viewing angle φ may be acquired from the imaging unit 3. The imaging condition information described above is used when a predetermined function to be exerted on the target object M is an imaging function by the imaging unit 3, but when a function other than the imaging function is targeted, imaging condition information is used. Instead, it can be functional condition information. The function condition information includes a condition for defining a range where the function can be sufficiently exhibited. For example, in the case of a function such as emitting a sound to the target object M or giving a warning by light emission, the function condition information includes information that can specify a range in which sound and light reach effectively. For example, the radiation direction θ ′ of sound or light and the half width (radiation angle at which the radiation energy becomes −3 dB) φ ′, which is an index indicating the directivity, may be set as the function condition information.

制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理、速度推定処理、経路探索処理、移動制御処理(経路追従制御)を行う一連の処理として、位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74を含んでいる。   The control unit 7 is composed of a computer including a CPU and the like. As a series of processes for performing position estimation processing, speed estimation processing, route search processing, and movement control processing (route tracking control), position estimation means 71, speed estimation means. 72, a route search means 73, and a movement control means 74 are included.

位置推定手段71は、位置検出センサ6の出力に基づいて、飛行空間における自律移動ロボット1の現在位置(自己位置)を推定する位置推定処理を行う。   The position estimation unit 71 performs position estimation processing for estimating the current position (self-position) of the autonomous mobile robot 1 in the flight space based on the output of the position detection sensor 6.

具体的には、位置検出センサ6から得られた複数の航法衛星からの航法信号に基づいて既知の周知技術に基づいて推定した緯度・経度と、距離検出センサ5から得られた高度とから自己位置の座標(Xs,Ys,Zs)を計算する。さらに、電子コンパスやジャイロセンサなどの位置検出センサ6からの出力を受けて自己位置として姿勢YAWを求める。なお、自己位置の推定方法はこれに限定されるものではなく、他の方法を用いて自律移動ロボット1の現在位置を推定してもよい。 More specifically, the latitude / longitude estimated based on the known known technology based on the navigation signals from the plurality of navigation satellites obtained from the position detection sensor 6 and the altitude obtained from the distance detection sensor 5 The position coordinates (X s , Y s , Z s ) are calculated. Further, the posture YAW is obtained as a self position in response to an output from the position detection sensor 6 such as an electronic compass or a gyro sensor. The self-position estimation method is not limited to this, and the current position of the autonomous mobile robot 1 may be estimated using another method.

位置推定手段71は、推定された自己位置(座標:Xs,Ys,Zs及び姿勢YAW)と管理装置102から受信した目標対象物Mの位置(座標:Xt,Yt,Zt)を経路探索手段73へ出力する。 The position estimation means 71 includes the estimated self position (coordinates: X s , Y s , Z s and posture YAW) and the position of the target object M received from the management device 102 (coordinates: X t , Y t , Z t). ) To the route search means 73.

なお、位置推定手段71は、目標対象物Mの位置に基づいて空間情報82及び属性情報83を更新する処理を行う。具体的には、記憶部8の空間情報82に基づいたボクセル空間に目標対象物Mの位置を中心として予め定めた目標対象物Mの大きさと略同じ大きさの円柱モデル(例えば、監視対象の目標対象物Mを侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを「移動障害属性」と「機能障害属性」を有する占有ボクセルとして設定することにより空間情報82及び属性情報83を更新する。後述するように、自律移動ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように目標対象物Mの位置に基づいて空間情報82を更新することにより、自律移動ロボット1と目標対象物Mとの接触を回避することができる。   The position estimating unit 71 performs a process of updating the spatial information 82 and the attribute information 83 based on the position of the target object M. Specifically, a cylindrical model (for example, a monitoring target) having a size substantially the same as the size of the target object M that is determined in advance in the voxel space based on the spatial information 82 of the storage unit 8 with the position of the target object M as the center. When the target object M is an intruder, a cylinder model having a bottom radius of 0.3 m and a height of 1.7 m is arranged, and voxels that interfere with the cylinder model are designated as “movement obstacle attribute” and “function obstacle”. The spatial information 82 and the attribute information 83 are updated by setting as an occupied voxel having “attribute”. As will be described later, the autonomous mobile robot 1 is flight-controlled so as not to move to the occupied voxel, but the autonomous mobile robot 1 is updated by updating the spatial information 82 based on the position of the target object M as described above. Contact between the target object 1 and the target object M can be avoided.

速度推定手段72は、後述する移動制御手段74における移動制御で利用するため、自律移動ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する処理を行う。本実施の形態では、位置推定手段71にて推定した自己位置(座標:Xs,Ys,Zs及び姿勢YAW)の時間変化から飛行速度を求める。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定することが好適である。この他にも、GNSSにおけるドップラー効果を利用した速度推定方法を用いてもよい。 The speed estimation means 72 performs processing for estimating the current flight speed (v x , v y , v z , v yaw ) of the autonomous mobile robot 1 to be used for movement control in the movement control means 74 described later. In the present embodiment, the flight speed is obtained from the time change of the self-position (coordinates: X s , Y s , Z s and attitude YAW) estimated by the position estimation means 71. At this time, it is preferable to estimate the flight speed using an extended Kalman filter in consideration of the influence of measurement errors and the like. In addition, a speed estimation method using the Doppler effect in GNSS may be used.

経路探索手段73は、位置推定手段71で推定された自己位置及び目標対象物Mの位置と、記憶部8に記憶された各種情報とを用いて自律移動ロボット1の移動経路を算出する経路探索処理を行う。本実施の形態では、経路探索手段73における経路探索処理は、自己位置から目標対象物Mの近傍に設定した移動目標位置に至る移動経路を生成する。   The route searching unit 73 calculates a moving route of the autonomous mobile robot 1 using the self position estimated by the position estimating unit 71 and the position of the target object M and various information stored in the storage unit 8. Process. In the present embodiment, the route searching process in the route searching means 73 generates a moving route from the own position to the moving target position set in the vicinity of the target object M.

経路探索処理では、まず、目標対象物位置81と離間条件85とに基づいて移動候補位置を設定する処理を行う。本実施の形態では、目標対象物位置81から離間条件85として定められた離間距離及び離間高度だけ離れた周囲の領域に複数の移動候補位置を設定する処理を行う。移動候補位置を、目標対象物Mを中心として記憶部8に記憶された離間距離(例えば3m)を半径とした円状の位置で、かつ、管理者等により予め定められた離間高度(例えば3m)の領域に、それぞれ等間隔になるように設定する。   In the route search process, first, a process for setting a movement candidate position based on the target object position 81 and the separation condition 85 is performed. In the present embodiment, a process of setting a plurality of movement candidate positions in a surrounding area separated from the target object position 81 by a separation distance and a separation height determined as the separation condition 85 is performed. The movement candidate position is a circular position having a radius of the separation distance (for example, 3 m) stored in the storage unit 8 with the target object M as the center, and a separation altitude (for example, 3 m) predetermined by the administrator or the like. ) Areas are set at equal intervals.

図7(a)〜図7(c)は、移動候補位置の設定についての説明図である。図7(a)〜図7(c)は、時刻tのときにボクセルで表示した飛行空間の一部を真上から見下ろしたときの図である。   Fig.7 (a)-FIG.7 (c) are explanatory drawings about the setting of a movement candidate position. FIG. 7A to FIG. 7C are views when a part of the flight space displayed by the voxel at time t is looked down from directly above.

符号B1で表わした黒塗りされた領域は、移動障害属性及び機能障害属性を有する占有ボクセルを示す。例えば、当該ボクセルは、建物等の遮光性の物体が占有する空間を示す。符号B2で表わしたハッチングで塗られた領域は移動障害属性を有するが、機能障害属性を有さない占有ボクセルを示す。例えば、当該ボクセルは、ガラス、ネット、フェンス等の透光性を有する物体が占有する空間を示す。符号B3で表わしたドットで塗られた領域は、移動障害属性を有するが、機能障害属性を有さない近接ボクセルを示す。符号B4で表わした白色の領域(何も塗られていない領域)は、移動障害属性及び機能障害属性のいずれも有さない自由ボクセルを示す。   A black area represented by reference numeral B1 indicates an occupied voxel having a movement failure attribute and a function failure attribute. For example, the voxel indicates a space occupied by a light-shielding object such as a building. A hatched region represented by reference symbol B2 indicates an occupied voxel having a movement failure attribute but not having a functional failure attribute. For example, the voxel indicates a space occupied by a light-transmitting object such as glass, a net, or a fence. An area painted with dots represented by reference numeral B3 indicates a proximity voxel having a movement failure attribute but not having a function failure attribute. A white region (a region where nothing is painted) represented by reference numeral B4 indicates a free voxel having neither a movement failure attribute nor a functional failure attribute.

まず、経路探索手段73は、図7(a)に示すように、目標対象物Mを中心として離間条件85を半径とした円周上に等角度の間隔で複数個の移動候補位置Pcを設置する。図7(a)の例では、5°おきに72個の移動候補位置Pcを設定している。   First, as shown in FIG. 7A, the route searching means 73 sets a plurality of movement candidate positions Pc at equal angular intervals on a circumference centered on the target object M and having a separation condition 85 as a radius. To do. In the example of FIG. 7A, 72 movement candidate positions Pc are set every 5 °.

また、管理者により予め設定された離間条件85(固定値)に基づいて移動候補位置Pcを設定するのではなく、自律移動ロボット1の撮像部3(機能部)の有効範囲を示す機能条件情報を用いて目標対象物Mが自律移動ロボット1から当該有効範囲となる移動空間内の位置又は範囲を求め、当該位置又は範囲内に移動候補位置Pcを設定するようにしてもよい。   Also, functional condition information indicating the effective range of the imaging unit 3 (functional unit) of the autonomous mobile robot 1 instead of setting the movement candidate position Pc based on the separation condition 85 (fixed value) preset by the administrator. The target object M may be obtained from the autonomous mobile robot 1 in the moving space where the target object M is in the effective range, and the movement candidate position Pc may be set in the position or range.

例えば、自律移動ロボット1の機能が撮像である場合ならば、撮像部3の画角等の撮像条件を示した機能条件情報を記憶部8から読み出して、機能条件情報と目標対象物Mの位置とに基づいて、目標対象物Mが撮像部3の撮像範囲内となる移動空間内の位置又は範囲を幾何学的に求め、当該位置又は範囲を示した離間条件85により記憶部8を更新する。例えば、目標対象物Mから所定の水平距離(例えば3m)だけ離れた位置において目標対象物Mを撮像可能(撮像範囲内となる)な高度を機能条件情報に基づいて幾何学的に算出し、当該水平距離及び高度からなる値により離間条件85を更新する。又は、所定の高度の位置において目標対象物Mを撮像可能(撮像範囲内となる)な水平距離を機能条件情報に基づいて幾何学的に算出し、当該水平距離及び高度からなる値により離間条件85を更新する。そして、更新した離間条件85を満たす位置に複数の移動候補位置Pcを設定する。   For example, if the function of the autonomous mobile robot 1 is imaging, functional condition information indicating imaging conditions such as the angle of view of the imaging unit 3 is read from the storage unit 8, and the functional condition information and the position of the target object M are read. Based on the above, the position or range in the moving space where the target object M falls within the imaging range of the imaging unit 3 is obtained geometrically, and the storage unit 8 is updated with the separation condition 85 indicating the position or range. . For example, the altitude at which the target object M can be imaged (within the imaging range) at a position separated from the target object M by a predetermined horizontal distance (for example, 3 m) is geometrically calculated based on the functional condition information, The separation condition 85 is updated with the value including the horizontal distance and the altitude. Alternatively, the horizontal distance that allows the target object M to be imaged (within the imaging range) at a predetermined altitude position is calculated geometrically based on the functional condition information, and the separation condition is determined based on the value of the horizontal distance and the altitude. 85 is updated. Then, a plurality of movement candidate positions Pc are set at positions that satisfy the updated separation condition 85.

さらに、目標対象物Mの特徴部位についての目標対象物位置81からの相対位置を示した特徴位置を記憶部8に記憶させておき、当該特徴位置と目標対象物位置81とを用いて複数の移動候補位置Pcを設定してもよい。例えば、目標対象物Mが人(賊)の場合、特徴部位は、顔等の人(賊)を識別できる部位とし、特徴位置は略顔の位置となる高さ方向(Z軸方向)に150cmの位置として記憶すればよい。そして、目標対象物位置81と特徴位置とから求まる特徴部位の位置を用いて、当該特徴部位が機能部(撮像部3)の機能の有効範囲内に入るための位置関係を求め当該位置関係(例えば、目標対象物位置81から水平距離3m離れた位置であって高度3mの位置など)を離間条件85として記憶部8に記憶し、当該離間条件85を満たす位置に移動候補位置Pcを設定する。この際、目標対象物Mの特徴部位が自律移動ロボット1の機能部(撮像部3)の有効範囲内に入る位置又は範囲を幾何学的に求め、当該位置又は範囲内に複数の移動候補位置Pcを設定してもよい。なお、上記の他にも、目標対象物Mが車両である場合、その特徴部位をナンバープレートとし、目標対象物Mの姿勢(正面方向)を含む目標対象物位置81と特徴位置とを用いて、当該特徴部位(ナンバープレート)の位置を求めてもよい。   Further, a feature position indicating a relative position of the feature portion of the target object M from the target object position 81 is stored in the storage unit 8, and a plurality of pieces of information are obtained using the feature position and the target object position 81. The movement candidate position Pc may be set. For example, when the target object M is a person (bandit), the characteristic part is a part that can identify a person (bandon) such as a face, and the characteristic position is approximately 150 cm in the height direction (Z-axis direction) that is the position of the face. May be stored as the position. Then, using the position of the characteristic part obtained from the target object position 81 and the characteristic position, a positional relation for the characteristic part to fall within the effective range of the function of the functional unit (imaging unit 3) is obtained and the positional relation ( For example, a position at a horizontal distance of 3 m and a height of 3 m from the target object position 81 is stored in the storage unit 8 as the separation condition 85, and the movement candidate position Pc is set to a position that satisfies the separation condition 85. . At this time, a position or range where the characteristic part of the target object M falls within the effective range of the functional unit (imaging unit 3) of the autonomous mobile robot 1 is geometrically obtained, and a plurality of movement candidate positions are included in the position or range. Pc may be set. In addition to the above, when the target object M is a vehicle, the characteristic part is a license plate, and the target object position 81 including the posture (front direction) of the target object M and the characteristic position are used. The position of the characteristic part (number plate) may be obtained.

次に、経路探索手段73は、設定された移動候補位置Pcのうち移動障害属性を有するボクセルに含まれる移動候補位置Pcを除外する。すなわち、設定された移動候補位置Pcのうち「占有ボクセル」及び「近接ボクセル」に含まれる移動候補位置Pcを候補から除外する。   Next, the route search means 73 excludes the movement candidate position Pc included in the voxel having the movement obstacle attribute from the set movement candidate positions Pc. That is, movement candidate positions Pc included in “occupied voxels” and “proximity voxels” among the set movement candidate positions Pc are excluded from the candidates.

さらに、経路探索手段73は、残った移動候補位置Pcのうち目標対象物Mを撮像できる移動候補位置Pcを選択する。まず、残った移動候補位置Pcの各々を順に着目する移動候補位置Pcして、着目した移動候補位置Pcと目標対象物位置81とを結ぶ直線を求める。次に、空間情報82を参照して、当該直線上に存在する各ボクセルを抽出し、抽出されたボクセルのボクセルIDを求める。そして、属性情報83を参照して、求められたボクセルIDで特定されるボクセルの属性を調べ、機能障害属性であるボクセルが存在する場合に着目した移動候補位置Pcを候補から除外する。機能障害属性であるボクセルが存在する場合、着目した移動候補位置Pcからは目標対象物Mを撮像できないからである。一方、機能障害属性であるボクセルが存在しない場合には、着目した移動候補位置Pcを候補として残す。着目した移動候補位置Pcから目標対象物Mが撮像できるからである。これらの処理により図7(b)に示すように移動候補位置Pcが選別される。   Furthermore, the route search means 73 selects the movement candidate position Pc from which the target object M can be imaged among the remaining movement candidate positions Pc. First, each of the remaining movement candidate positions Pc is taken as a movement candidate position Pc in which attention is paid in turn, and a straight line connecting the movement candidate position Pc in focus and the target object position 81 is obtained. Next, with reference to the spatial information 82, each voxel existing on the straight line is extracted, and the voxel ID of the extracted voxel is obtained. Then, with reference to the attribute information 83, the attribute of the voxel specified by the obtained voxel ID is checked, and the movement candidate position Pc focused on when there is a voxel that is a function failure attribute is excluded from the candidates. This is because the target object M cannot be imaged from the focused movement candidate position Pc when there is a voxel that is a functional disorder attribute. On the other hand, if there is no voxel that is a functional disorder attribute, the focused movement candidate position Pc is left as a candidate. This is because the target object M can be imaged from the focused movement candidate position Pc. By these processes, the movement candidate position Pc is selected as shown in FIG.

なお、目標対象物Mの特徴位置が設定されている場合、着目した移動候補位置Pcと目標対象物Mの特徴位置とを結ぶ直線を求め、当該直線上のボクセルについて機能障害属性であるか否かを判断することが好適である。   When the characteristic position of the target object M is set, a straight line connecting the focused movement candidate position Pc and the characteristic position of the target object M is obtained, and whether or not the voxel on the straight line is a functional disorder attribute. It is preferable to determine whether or not.

また、一般的な3次元コンピュータグラフィックス処理における仮想視点からのレンダリング技術を用いて目標対象物Mが撮像可能な移動候補位置Pcを求めてもよい。すなわち、属性情報83が機能障害属性であるボクセルについては移動候補位置Pcにある仮想視点(仮想的に設けた撮像部3)からみたときに撮像の障害物(不透明の物体)として存在することとする。反対に、属性情報83が機能障害属性でないボクセルについては移動候補位置Pcにある仮想視点(仮想的に設けた撮像部3)からみたときに撮像の障害物とはならない(透明)ものとして存在することとする。そして、移動候補位置Pcの各々から目標対象物位置81に設置した目標対象物Mの3次元モデルをレンダリング(撮像)したときに当該目標対象物Mが撮像できるか否かを目標対象物位置81及び撮像条件を用いて幾何学的に算出する。   Alternatively, the movement candidate position Pc at which the target object M can be imaged may be obtained using a rendering technique from a virtual viewpoint in general three-dimensional computer graphics processing. That is, a voxel whose attribute information 83 is a functional disorder attribute exists as an imaging obstacle (opaque object) when viewed from the virtual viewpoint (imaging unit 3 provided virtually) at the movement candidate position Pc. To do. On the other hand, voxels whose attribute information 83 is not a functional impairment attribute exist as not being an imaging obstacle (transparent) when viewed from the virtual viewpoint (imaging section 3 provided virtually) at the movement candidate position Pc. I will do it. Then, when the three-dimensional model of the target object M installed at the target object position 81 from each of the movement candidate positions Pc is rendered (imaged), it is determined whether or not the target object M can be imaged. And geometrically using the imaging conditions.

経路探索手段73は、上記処理において残った移動候補位置Pcのうち、位置推定手段71において推定された自己位置に最も近い、すなわち当該自己位置からの直線距離がもっと小さい移動候補位置Pcを移動目標位置に設定する。これにより、図7(c)に示すように移動目標位置Qが設定される。   The route search means 73 uses the movement candidate position Pc that is closest to the self-position estimated by the position estimation means 71 among the movement candidate positions Pc remaining in the above processing, that is, the movement candidate position Pc having a smaller linear distance from the self-position. Set to position. Thereby, the movement target position Q is set as shown in FIG.

なお、すべての移動候補位置Pcについて目標対象物Mを撮像できないと判定された場合、移動障害属性を有するボクセルに含まれるとして除外された後に残った移動候補位置Pcのうち自己位置に最も近い移動候補位置Pcを移動目標位置Qに設定すればよい。   If it is determined that the target object M cannot be imaged for all the movement candidate positions Pc, the movement closest to the self position among the movement candidate positions Pc remaining after being excluded as being included in the voxel having the movement obstacle attribute. The candidate position Pc may be set as the movement target position Q.

すなわち、本実施の形態では、経路探索手段73は、飛行空間にある障害物の3次元形状のみならず、自律移動ロボット1の機能を発揮することの障害となるか否かも考慮し、自律移動ロボット1の機能が発揮可能な移動目標位置Qが優先的に設定される。   That is, in the present embodiment, the route search means 73 considers not only the three-dimensional shape of the obstacle in the flight space but also whether or not it becomes an obstacle to exhibiting the function of the autonomous mobile robot 1, A movement target position Q at which the function of the robot 1 can be exerted is preferentially set.

そして経路探索手段73は、設定された移動目標位置Qと、記憶部8に記憶された空間情報82及び移動空間グラフ情報84と、位置推定手段71にて推定された自己位置と、を用いて自律移動ロボット1の移動経路を算出する移動経路生成処理を行う。移動経路生成処理では、空間情報82及び移動空間グラフ情報84を参照し、移動目標位置に対応するボクセルのノード(以下「スタートノード」という)から自己位置に対応するボクセルのノード(以下「ゴールノード」という)に至る総コスト値Cが最も小さくなる経路をA*経路探索法により探索する。   Then, the route search means 73 uses the set movement target position Q, the spatial information 82 and the movement space graph information 84 stored in the storage unit 8, and the self position estimated by the position estimation means 71. A movement path generation process for calculating the movement path of the autonomous mobile robot 1 is performed. In the movement path generation process, the spatial information 82 and the movement space graph information 84 are referred to, and the voxel node corresponding to the movement target position (hereinafter referred to as “start node”) to the voxel node corresponding to the self position (hereinafter referred to as “goal node”). The route with the smallest total cost value C to “)” is searched by the A * route search method.

A*経路探索法では、ある評価ノードn(ノードIDがnのノード)における総コスト値C(n)を数式(1)で表わす。

Figure 0006599143
In the A * route search method, the total cost value C (n) at a certain evaluation node n (node whose node ID is n) is expressed by Expression (1).
Figure 0006599143

ここで、g(n)は、評価ノードnについてのA*経路探索法におけるgコスト値であり、本実施の形態では、スタートノードから評価ノードnに至るまでの移動距離や障害物への接触危険性を考慮したコスト値として求める。すなわち、評価ノードnのgコスト値であるg(n)は、隣接ノードにおけるgコスト値であるg(n−1)と、当該隣接ノードから評価ノードに至る距離に基づいて設定された距離コストCM、評価ノードにおけるボクセルコストCv(n)との和とし、g(n)=g(n−1)+CM+Cv(n)により求める。また、h(n)は、評価ノードnについてのA*経路探索法におけるhコスト値であり、評価ノードnからゴールノードに至る距離の推定コスト値である。本実施形態では、評価ノードnからゴールノードに至る直線距離によりh(n)を求める。A*経路探索法では、スタートノードから順に隣接ノードの総コスト値C(n)を算出していくことを繰り返し、最終的にゴールノードに至る総コスト値C(n)が最も小さくなる経路を探索していく。 Here, g (n) is a g cost value in the A * route search method for the evaluation node n, and in this embodiment, the moving distance from the start node to the evaluation node n and the contact with the obstacle Calculated as a cost value considering the danger. That is, g (n) which is the g cost value of the evaluation node n is g (n-1) which is the g cost value in the adjacent node and the distance cost set based on the distance from the adjacent node to the evaluation node. The sum of C M and the voxel cost C v (n) at the evaluation node is obtained by g (n) = g (n−1) + C M + C v (n). H (n) is an h cost value in the A * route search method for the evaluation node n, and is an estimated cost value of the distance from the evaluation node n to the goal node. In the present embodiment, h (n) is obtained from the straight line distance from the evaluation node n to the goal node. In the A * route search method, the calculation of the total cost value C (n) of the adjacent nodes in order from the start node is repeated, and the route having the smallest total cost value C (n) finally reaching the goal node is obtained. I will explore.

以下に、A*経路探索法による移動経路の生成について簡単に説明する。A*経路探索法では、まず、スタートノードに隣接する一又は複数のノード(隣接ノード)を評価ノードとして設定するところから開始する。そして、それぞれの評価ノードについて式(1)により総コスト値を求める。次に、評価ノードの中で最小の総コスト値となるノードを注目ノードと称したとき、当該注目ノードの(これまで評価ノードと設定されていない新たな)隣接ノードを新たに評価ノードとして追加し、新たに追加された評価ノードに対しても同様に総コスト値を求める。続いて、同様に全ての評価ノードの中で最小の総コスト値となる評価ノードを注目ノードに再設定する。このように、評価ノードの総コスト値に基づいた注目ノードの再設定と、当該再設定に伴う新たな評価ノードの追加及び総コスト値の計算を繰り返し、最終的にゴールノードが注目ノードとして設定されたとき、経路の探索は終了する。   Hereinafter, the generation of a movement route by the A * route search method will be briefly described. In the A * route search method, first, one or a plurality of nodes (adjacent nodes) adjacent to the start node are set as evaluation nodes. Then, the total cost value is obtained for each evaluation node by the equation (1). Next, when the node with the lowest total cost value among the evaluation nodes is referred to as the attention node, the adjacent node (newly not set as the evaluation node so far) of the attention node is newly added as the evaluation node. The total cost value is similarly obtained for the newly added evaluation node. Subsequently, the evaluation node having the minimum total cost value among all the evaluation nodes is reset as the attention node. In this way, the resetting of the target node based on the total cost value of the evaluation node, the addition of a new evaluation node and the calculation of the total cost value accompanying the resetting are repeated, and the goal node is finally set as the target node When done, the route search ends.

このようにして、起点となるスタートノードから終点となるゴールノードに至る最良の移動経路が生成される。経路探索手段73で生成された移動経路のデータは、経由点となるノードの位置(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。   In this way, the best movement path from the start node as the starting point to the goal node as the end point is generated. The data of the travel route generated by the route search means 73 is set data of the position (x, y, z) of the node serving as the via point, and this information is temporarily stored in the storage unit 8.

なお、経路の探索方法は、A*経路探索法に限定されるものでなく、ダイクストラ法等の他の経路探索方法を適用してもよい。   The route search method is not limited to the A * route search method, and other route search methods such as the Dijkstra method may be applied.

移動制御手段74は、経路探索手段73にて算出された移動経路と位置推定手段71にて推定された自己位置と速度推定手段72で推定された飛行速度とを用いて、自律移動ロボット1が経路探索手段73で算出された移動経路に沿って飛行するように経路追従制御を行う。具体的には、移動経路、自己位置及び飛行速度を用いて各時刻での飛行制御値である制御指令値を求め、当該制御指令値に基づいてモータ4を制御し、ロータ2の回転数を制御する。   The movement control means 74 uses the movement route calculated by the route search means 73, the self-position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72, so that the autonomous mobile robot 1 Route follow-up control is performed so as to fly along the movement route calculated by the route search means 73. Specifically, a control command value, which is a flight control value at each time, is obtained using the movement route, the self position, and the flight speed, the motor 4 is controlled based on the control command value, and the rotation speed of the rotor 2 is determined. Control.

経路追従制御では、まず、各時刻での自律移動ロボット1が目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図8はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、移動制御手段74は、経路探索手段73で生成された移動経路を記憶部8から読出し、自律移動ロボット1が現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、移動制御手段74は、求めた直線Wと自律移動ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律移動ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律移動ロボット1は移動経路に沿って飛行していくことになる。 In the route following control, first, a process of calculating the nearest position (hereinafter referred to as “local target”) that the autonomous mobile robot 1 should target at each time is performed. FIG. 8 is a diagram for explaining the calculation of the local target. In calculating the local target, the movement control means 74 reads the movement route generated by the route search means 73 from the storage unit 8, and has already passed the transit point W p1 that the autonomous mobile robot 1 is aiming at at the current time. A straight line W connecting the two points with the via point W p0 is obtained. Then, the movement control means 74 calculates the intersections L p ′, L p between the obtained straight line W and the sphere S centered on the self-position of the autonomous mobile robot 1, and the intersection L close to the intended via point W p1. Find p as a local goal. In this way, by performing flight control so that the autonomous mobile robot 1 moves toward the local target at each time, the local target always moves on the moving path toward the moving target position Po , and the autonomous mobile robot. 1 will fly along the movement path.

次に、経路追従制御では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角の各方向毎に制御指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような制御指令値を求める。具体的には、XYZ軸方向の制御指令値u=(ux,uy,uz)は、位置推定手段71で求められた自己位置r=(Xs,Ys,Zs)と速度推定手段72で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各制御指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、制御指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の制御指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律移動ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vψの式のようなPD制御により求める。なお、本実施の形態では、目標角度ψ'を目標対象物Mの方向、すなわち、目標対象物Mの位置の方向を向く角度とした。 Next, in the path following control, a process of calculating control command values u x , u y , u z , uψ for each direction of X, Y, Z, and yaw angle so as to fly toward the calculated local target is performed. . At this time, a control command value is determined so that the difference between the current self position and the position of the local target is small. Specifically, the control command value u = (u x , u y , u z ) in the XYZ-axis directions is calculated based on the self position r = (X s , Y s , Z s ) obtained by the position estimation means 71 and the speed. The speed v = (v x , v y , v z ) estimated by the estimation means 72 is used to obtain by PID control. Each control command value of the XYZ-axis direction u = (u x, u y , u z), the local target r '= when (x, y, z) and the control command value is, u = K p (r '-R) + K d · v + K i · e is calculated. Here, K p, K d, K i is that the gain of the PID control, respectively, e = (e x, e y, e z) is the integral value of the error. On the other hand, the control command value uψ in the yaw angle direction is expressed as follows: ψ ′ is the target angle, ψ is the posture (angle) of the autonomous mobile robot 1 estimated by the position estimation means 71, and v yaw is the angular velocity estimated by the speed estimation means 72. Then, determined by PD control as equation uψ = K p (ψ'-ψ ) + K d · vψ. In the present embodiment, the target angle ψ ′ is an angle that faces the direction of the target object M, that is, the direction of the position of the target object M.

このように、制御部7は、上述した位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74における各処理を逐次繰り返す。これにより、本実施の形態の自律移動ロボット1は、目標対象物Mから離間条件85を満たす位置であって、撮像部3(機能部)の機能を発揮できる位置に対して移動目標位置を逐次更新し、その都度移動経路についても逐次更新していくことによって、目標対象物Mを適切に撮像しながら追従することができる。   In this way, the control unit 7 sequentially repeats the processes in the position estimation unit 71, the speed estimation unit 72, the route search unit 73, and the movement control unit 74 described above. Thereby, the autonomous mobile robot 1 of this Embodiment is a position which satisfy | fills the separation conditions 85 from the target object M, Comprising: A movement target position is sequentially with respect to the position which can exhibit the function of the imaging part 3 (functional part). By updating and sequentially updating the moving route each time, it is possible to follow the target object M while appropriately imaging it.

<変形例1>
上記実施の形態では、属性情報83として自律移動ロボット1の機能の障害となるか否かを機能障害属性として登録し、その属性に基づいて目標対象物Mに対して機能が発揮できない位置を移動目標位置Qの候補から除外する処理とした。
<Modification 1>
In the above-described embodiment, whether or not the function of the autonomous mobile robot 1 becomes an obstacle is registered as the attribute information 83, and a position where the function cannot be exerted on the target object M is moved based on the attribute. The processing is excluded from the target position Q candidates.

これに対して、属性情報83として、自律移動ロボット1の機能の障害となる程度を示す機能障害度を登録するものとしてもよい。機能障害度は、自律移動ロボット1の機能の障害にまったくならないボクセルに対しては0%とし、完全に機能の障害となる(完全に機能が遮られる)ボクセルに対しては100%とし、障害となる程度が高くなるにつれて高い値となるように設定すればよい。例えば、自律移動ロボット1の機能が撮像である場合、ボクセル毎に当該ボクセルの光の反射率、透過率、屈折率等に基づいて各ボクセルが撮像の障害となる程度を0〜100%の範囲で設定すればよい。   On the other hand, it is good also as what registers the functional failure degree which shows the grade used as the failure of the function of the autonomous mobile robot 1 as the attribute information 83. FIG. The degree of functional failure is 0% for voxels that do not cause any functional failure of the autonomous mobile robot 1 and 100% for voxels that are completely functionally impaired (completely blocked). What is necessary is just to set so that it may become a high value as the grade to become high. For example, in the case where the function of the autonomous mobile robot 1 is imaging, the range in which each voxel becomes an obstacle to imaging based on the reflectance, transmittance, refractive index, etc. of the voxel for each voxel is in the range of 0 to 100%. You can set in.

このように属性情報83として機能障害度を登録した場合、経路探索手段73では以下のように移動目標位置Qを設定する。   When the functional failure degree is registered as the attribute information 83 as described above, the route search means 73 sets the movement target position Q as follows.

まず、経路探索手段73は、上記実施の形態と同様に、目標対象物Mを中心として離間条件85を半径とした円周上に等角度の間隔で複数個の移動候補位置Pcを設置する。次に、経路探索手段73は、設定された移動候補位置Pcのうち移動障害属性を有するボクセルに含まれる移動候補位置Pcを除外する。すなわち、設定された移動候補位置Pcのうち「占有ボクセル」及び「近接ボクセル」に含まれる移動候補位置Pcを候補から除外する。さらに、経路探索手段73は、残った移動候補位置Pcのうち目標対象物Mを撮像できる移動候補位置Pcを選択する。この際、まず、残った移動候補位置Pcの各々を順に着目する移動候補位置Pcして、着目した移動候補位置Pcと目標対象物位置81(又は特徴位置)とを結ぶ直線を求める。次に、空間情報82を参照して、当該直線上に存在する各ボクセルを抽出し、抽出されたボクセルのボクセルIDを求める。そして、属性情報83を参照して、求められたボクセルIDで特定されるボクセルの属性を調べ、着目した移動候補位置Pcと目標対象物Mとを結ぶ直線上にあるボクセルの機能障害度の累積値K(例えば、機能障害度を単純に加算した値からなる評価値)を算出する。そして、機能障害度の累積値Kが所定基準値以上である移動候補位置Pcを候補から除外する。そして、残った移動候補位置Pcのうち、位置推定手段71において推定された自己位置に最も近い、すなわち当該自己位置からの直線距離がもっと小さい移動候補位置Pcを移動目標位置に設定する。   First, the route search means 73 installs a plurality of movement candidate positions Pc at equiangular intervals on a circumference centered on the target object M and having a separation condition 85 as a radius, as in the above embodiment. Next, the route search means 73 excludes the movement candidate position Pc included in the voxel having the movement obstacle attribute from the set movement candidate positions Pc. That is, movement candidate positions Pc included in “occupied voxels” and “proximity voxels” among the set movement candidate positions Pc are excluded from the candidates. Furthermore, the route search means 73 selects the movement candidate position Pc from which the target object M can be imaged among the remaining movement candidate positions Pc. At this time, first, the remaining movement candidate positions Pc are sequentially considered as movement candidate positions Pc, and a straight line connecting the focused movement candidate position Pc and the target object position 81 (or feature position) is obtained. Next, with reference to the spatial information 82, each voxel existing on the straight line is extracted, and the voxel ID of the extracted voxel is obtained. Then, by referring to the attribute information 83, the attribute of the voxel specified by the obtained voxel ID is checked, and the functional failure degree of the voxels on the straight line connecting the focused movement candidate position Pc and the target object M is accumulated. A value K (e.g., an evaluation value composed of a value obtained by simply adding the degree of functional failure) is calculated. Then, the movement candidate position Pc in which the cumulative value K of the degree of functional failure is equal to or greater than a predetermined reference value is excluded from the candidates. Then, of the remaining movement candidate positions Pc, the movement candidate position Pc that is closest to the self-position estimated by the position estimation means 71, that is, has a shorter linear distance from the self-position, is set as the movement target position.

また、自律移動ロボット1の自己位置から各移動候補位置Pcまでの直線距離Lと当該移動候補位置Pcに対する機能障害度の累積値Kとを考慮した評価値を求め、当該評価値に基づいて移動目標位置Qを設定してもよい。例えば、距離Lと累積値Kとからな評価関数αL+βKによって算出される評価値が最も小さい移動候補位置Pcを移動目標位置Qとして設定してもよい。ここでα、βは実験によって求めたパラメータである。なお、評価関数は、これに限定されるものではなく、自律移動ロボット1の飛行空間や機能等に応じて適宜設定すればよい。   Further, an evaluation value is calculated in consideration of the straight line distance L from the self-position of the autonomous mobile robot 1 to each movement candidate position Pc and the cumulative value K of the degree of functional failure for the movement candidate position Pc, and the movement is performed based on the evaluation value. The target position Q may be set. For example, the movement candidate position Pc having the smallest evaluation value calculated by the evaluation function αL + βK consisting of the distance L and the accumulated value K may be set as the movement target position Q. Here, α and β are parameters obtained by experiments. The evaluation function is not limited to this, and may be set as appropriate according to the flight space, function, etc. of the autonomous mobile robot 1.

<変形例2>
上記実施の形態では、本発明における「移動空間を構成する複数の部分空間」として、自律移動ロボット1の3次元の飛行空間をボクセル(所定単位の大きさの単位空間)に分割して飛行空間を離散的に表現して処理を行ったが、3次元の飛行空間を他の3次元データ表現手法によって表現して処理してもよい。例えば、3次元CADなどによって飛行空間内に存在する物体を連続的な3次元ベクトルデータにより表現して処理してもよい。
<Modification 2>
In the above embodiment, as “a plurality of partial spaces constituting the moving space” according to the present invention, the three-dimensional flight space of the autonomous mobile robot 1 is divided into voxels (unit spaces of a predetermined unit size). However, the three-dimensional flight space may be expressed and processed by another three-dimensional data expression method. For example, an object existing in the flight space may be expressed by continuous three-dimensional vector data and processed by three-dimensional CAD or the like.

具体的には、飛行空間内に存在する物体の大きさ及び位置を表わすベクトルデータを空間情報82として記憶する。例えば、起点となる座標、当該起点からの長さ、幅及び高さを示すベクトルを組み合わせた物体の大きさ及び位置を空間情報82として記憶部8に記憶させる。また、空間情報82として記憶した各物体が自律移動ロボット1の機能の障害となるか否かを各物体に関連付けて属性情報83として記憶部8に記憶させる。   Specifically, vector data representing the size and position of an object existing in the flight space is stored as the spatial information 82. For example, the storage unit 8 stores the size and position of the object, which is a combination of coordinates indicating the starting point, and vectors indicating the length, width, and height from the starting point, as the spatial information 82. Further, whether or not each object stored as the spatial information 82 becomes an obstacle to the function of the autonomous mobile robot 1 is stored in the storage unit 8 as attribute information 83 in association with each object.

経路探索手段73は、目標対象物Mに対して離間条件85を満たす位置であって目標対象物Mに対して自律移動ロボット1の機能が発揮できる位置を空間情報82及び属性情報83を参照することによって求め、当該位置を移動目標位置Qとして設定する。   The route search means 73 refers to the spatial information 82 and the attribute information 83 for a position that satisfies the separation condition 85 with respect to the target object M and that can perform the function of the autonomous mobile robot 1 with respect to the target object M. And the position is set as the movement target position Q.

具体的には、まず、経路探索手段73は、目標対象物位置81を中心として離間条件85を半径とした円周上を移動候補位置Pcとして設定する。次に、経路探索手段73は、空間情報82を参照して、設定された円周上の移動候補位置Pcのうち物体が存在している位置を移動候補位置Pcから除外する。さらに、経路探索手段73は、空間情報82及び属性情報83を参照して、残った移動候補位置Pcと目標対象物Mとを結ぶ直線上に機能の障害となる物体が存在しているか否かを判定し、機能の障害となる物体が存在している移動候補位置Pcを候補から除外する。これらの処理には、3次元の空間解析技術を適用すればよい。   Specifically, first, the route search means 73 sets the movement candidate position Pc on the circumference centered on the target object position 81 and having the separation condition 85 as a radius. Next, the route search means 73 refers to the spatial information 82 and excludes the position where the object exists from the set movement candidate positions Pc on the circumference from the movement candidate positions Pc. Further, the route search means 73 refers to the spatial information 82 and the attribute information 83 to determine whether or not there is an object that becomes a function obstacle on the straight line connecting the remaining movement candidate position Pc and the target object M. And the movement candidate position Pc where an object that becomes a function obstacle exists is excluded from the candidates. A three-dimensional spatial analysis technique may be applied to these processes.

以上のように、上記実施の形態及び変形例における自律移動ロボット1は、自己位置から移動目標位置までの経路を探索し、探索された経路に沿って自律的に移動することができる。また、本実施の形態では、障害物による隠蔽(オクルージョン)を考慮して、障害物によって目標対象物Mを撮像できる位置に自律移動ロボット1の移動目標位置が設定される。したがって、自律移動ロボット1によって目標対象物Mを撮像しながら追従飛行することが可能となる。   As described above, the autonomous mobile robot 1 in the above-described embodiment and modifications can search for a route from its own position to the movement target position, and can move autonomously along the searched route. In the present embodiment, the moving target position of the autonomous mobile robot 1 is set at a position where the target object M can be imaged by the obstacle in consideration of concealment (occlusion) by the obstacle. Accordingly, the autonomous mobile robot 1 can follow and fly while imaging the target object M.

なお、自律移動ロボット1が発揮できる機能が撮像でない場合も同様に本実施の形態を適用することができる。例えば、自律移動ロボット1が目標対象物Mに対して音を発する機能を有する場合、属性情報83に各ボクセルが音を透過するか、非透過であるかの属性を登録しておき、移動候補位置Pcと目標対象物Mとの間に音が非透過であるボクセルが存在する場合には当該移動候補位置Pcを候補から除外すればよい。また、自律移動ロボット1が目標対象物Mに対して発光による警告を行う機能を有する場合、属性情報83に各ボクセルが光を透過するか、非透過であるかの属性を登録しておき、移動候補位置Pcと目標対象物Mとの間に光が非透過であるボクセルが存在する場合には当該移動候補位置Pcを候補から除外すればよい。   It should be noted that the present embodiment can be similarly applied when the function that the autonomous mobile robot 1 can exhibit is not imaging. For example, when the autonomous mobile robot 1 has a function of emitting a sound to the target object M, an attribute indicating whether each voxel transmits or does not transmit sound is registered in the attribute information 83, and the movement candidate is registered. If there is a voxel that does not transmit sound between the position Pc and the target object M, the movement candidate position Pc may be excluded from the candidates. In addition, when the autonomous mobile robot 1 has a function of issuing a warning by light emission to the target object M, the attribute information 83 registers an attribute indicating whether each voxel transmits light or not, If there is a voxel that does not transmit light between the movement candidate position Pc and the target object M, the movement candidate position Pc may be excluded from the candidates.

なお、上記実施の形態では、管理装置102に接続された目標対象物検出センサ104を用いて目標対象物Mを検出している。しかしながら、これに限定されるものではなく、撮像部3で取得した撮像画像を画像解析することにより、目標対象物Mの位置を推定してもよい。例えば、撮像画像の各フレームを画像処理して目標対象物Mの画像領域を抽出する処理を行う。この際、既知の従来技術(特開2006−146551号公報を参照)であるオプティカルフロー法、ブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器等を用いて目標対象物Mの画像領域(人物領域)を抽出する。次に、当該抽出された画像領域の位置に基づいて目標対象物Mと自律移動ロボット1との距離を推定する。具体的には、抽出した目標対象物Mの画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び目標対象物Mの頭頂部のy座標位置を当該対応表に照らし合わせて自律移動ロボット1との距離を推定する。しかし、これに限らず、抽出した目標対象物Mの頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された目標対象物Mの頭部の大きさを当該対応表に照らし合わせて自律移動ロボット1との距離を推定してもよい。   In the above embodiment, the target object M is detected using the target object detection sensor 104 connected to the management device 102. However, the present invention is not limited to this, and the position of the target object M may be estimated by analyzing the captured image acquired by the imaging unit 3. For example, each frame of the captured image is subjected to image processing to extract an image area of the target object M. At this time, a discriminator using an optical flow method or boosting learning (for example, a face detection method using an AdaBoost-based discriminator using Haar-like features), which is a known prior art (see Japanese Patent Laid-Open No. 2006-146551). The image area (person area) of the target object M is extracted using the above. Next, the distance between the target object M and the autonomous mobile robot 1 is estimated based on the position of the extracted image region. Specifically, a correspondence table between the y-coordinate position (in the captured image) and the distance of the top of the image area of the extracted target object M is created in advance for each flight altitude, and the current flight altitude and target object The distance from the autonomous mobile robot 1 is estimated by comparing the y coordinate position of the top of the object M with the correspondence table. However, the present invention is not limited to this, and the distance may be calculated from the size of the head of the extracted target object M. That is, a correspondence table between the size of the head and the distance is prepared in advance, and the distance from the autonomous mobile robot 1 is estimated by comparing the size of the head of the extracted target object M with the correspondence table. May be.

また、自律移動ロボット1に撮像部3としてカラーカメラの代わりに距離画像センサを搭載して、当該距離画像センサから取得した距離画像を用いて、既知の移動物体抽出技術により目標対象物Mを抽出して、抽出した目標対象物Mと自律移動ロボット1との距離値と自己位置とから目標対象物Mの位置を推定してもよい。また、自律移動ロボット1にレーザスキャナを搭載し、当該レーザスキャナの出力値と自己位置とを用いて目標対象物Mの位置を推定してもよい。   In addition, a distance image sensor is mounted on the autonomous mobile robot 1 instead of a color camera as the imaging unit 3, and a target object M is extracted by a known moving object extraction technique using a distance image acquired from the distance image sensor. Then, the position of the target object M may be estimated from the distance value between the extracted target object M and the autonomous mobile robot 1 and the self position. Alternatively, the autonomous mobile robot 1 may be equipped with a laser scanner, and the position of the target object M may be estimated using the output value of the laser scanner and its own position.

また、上記実施の形態では、制御部7において位置推定処理、速度推定処理、経路探索処理、移動制御処理(経路追従制御)の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律移動ロボット1は、PCによって行われた位置推定処理、速度推定処理、経路探索処理、移動制御処理によって得られた制御指令値を無線通信又は有線通信によりPCから受信し、当該制御指令値に基づいてモータ4の回転数を制御することにより、目的の位置に飛行するようにしてもよい。このように、外部PCを用いて上記の一連の処理を分担することにより、自律移動ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。   Moreover, in the said embodiment, in the control part 7, a series of processes of a position estimation process, a speed estimation process, a route search process, and a movement control process (path follow-up control) are performed. However, the present invention is not limited to this, and a control PC (not shown) may be prepared and the PC may perform a series of these processes. That is, the autonomous mobile robot 1 receives the control command value obtained by the position estimation process, the speed estimation process, the route search process, and the movement control process performed by the PC from the PC by wireless communication or wired communication. You may make it fly to the target position by controlling the rotation speed of the motor 4 based on a value. In this way, by sharing the above-described series of processes using the external PC, it is possible to reduce the CPU processing load of the autonomous mobile robot 1 and thus to suppress battery consumption.

また、上記実施の形態における経路探索処理では、自己位置を移動経路の起点とし、目標対象物Mの近傍に設定された移動目標位置を移動経路の終点とし、当該起点から当該終点に至る移動経路を生成している。しかし、これに限らず、自己位置の近傍の位置を起点とし、当該起点から移動目標位置に至る移動経路を生成してもよい。例えば、自己位置から所定時間(例えば1秒)だけ未来の時刻における自己位置(予想到達位置)を、現時点の自己位置及び移動速度から予想し、当該予想到達位置を移動経路の起点として設定してもよい。   In the route search process in the above embodiment, the self-position is set as the starting point of the moving path, the moving target position set in the vicinity of the target object M is set as the end point of the moving path, and the moving path from the starting point to the end point. Is generated. However, the present invention is not limited to this, and a movement path from the position near the self position to the movement target position may be generated. For example, a self-position (predicted arrival position) at a future time from the self-position by a predetermined time (for example, 1 second) is predicted from the current self-position and moving speed, and the predicted arrival position is set as the starting point of the movement path. Also good.

また、上記実施の形態及び変形例における経路探索処理では、離間条件85を満たす位置に移動候補位置Pcを設定し、各移動候補位置Pcについて目標対象物Mに対して機能を発揮できるか否かを判定している。しかしながら、これに限定されるものではなく、空間情報82及び属性情報83を参照して、目標対象物Mに対して機能を発揮できる移動空間における位置又は範囲を幾何学的に算出し、当該位置又は範囲内に複数の移動候補位置Pcを設置し、これらの移動候補位置Pcの中から離間条件85や自己位置からの距離などに基づいて移動目標位置Qを選択してもよい。   Further, in the route search process in the above embodiment and the modification, the movement candidate position Pc is set at a position that satisfies the separation condition 85, and whether or not each movement candidate position Pc can exhibit a function with respect to the target object M. Is judged. However, the present invention is not limited to this, and by referring to the space information 82 and the attribute information 83, the position or range in the moving space where the function can be performed with respect to the target object M is geometrically calculated. Alternatively, a plurality of movement candidate positions Pc may be set within the range, and the movement target position Q may be selected from these movement candidate positions Pc based on the separation condition 85, the distance from the own position, or the like.

1 自律移動ロボット、2(2a〜2d) ロータ、3 撮像部、4(4a〜4d) モータ、5 距離検出センサ、6 位置検出センサ、7 制御部、8 記憶部、9 通信部、71 位置推定手段、72 経路探索手段、72 速度推定手段、73 経路探索手段、74 移動制御手段、81 目標対象物位置、82 空間情報、83 属性情報、84 移動空間グラフ情報、85 離間条件、86 各種パラメータ、100 警備センタ、102 管理装置、104 目標対象物検出センサ、110 情報通信網。   DESCRIPTION OF SYMBOLS 1 Autonomous mobile robot, 2 (2a-2d) Rotor, 3 Imaging part, 4 (4a-4d) Motor, 5 Distance detection sensor, 6 Position detection sensor, 7 Control part, 8 Storage part, 9 Communication part, 71 Position estimation Means, 72 route search means, 72 speed estimation means, 73 route search means, 74 movement control means, 81 target object position, 82 spatial information, 83 attribute information, 84 movement space graph information, 85 separation condition, 86 various parameters, DESCRIPTION OF SYMBOLS 100 Security center, 102 Management apparatus, 104 Target object detection sensor, 110 Information communication network.

Claims (4)

移動空間内を自律移動し、目標対象物に対して所定の機能を発揮する機能部を備えた自律移動ロボットであって、
前記移動空間を構成する複数の部分空間毎に当該移動空間における位置を示した空間情報と、前記部分空間毎に前記機能の障害となるか否か及び前記機能の障害となる程度を示した機能障害度を示した属性情報と、前記目標対象物の位置を示す目標対象物位置とを記憶した記憶部と、
自律移動ロボットの現在の自己位置及び姿勢を推定する位置推定手段と、
移動目標位置を設定して前記自己位置から前記移動目標位置に至る移動経路を算出する経路探索手段と、
前記移動経路に沿って自律移動ロボットが移動するよう制御する移動制御手段と、
を有し、
前記経路探索手段は、前記空間情報及び前記属性情報から求まる前記機能の障害となる前記部分空間の位置と前記目標対象物位置との位置関係から前記機能障害度を用いた評価関数によって得られた評価値に応じて、前記機能が発揮され易い前記移動空間における位置ほど前記移動目標位置に設定され易くなるよう処理することを特徴とする自律移動ロボット。
An autonomous mobile robot having a function unit that autonomously moves in a moving space and performs a predetermined function on a target object,
Wherein the space information indicating a position in the mobile space for each of a plurality of subspaces constituting the moving space, showing the extent to which the disability become whether and said function of said function for each of the subspaces function A storage unit that stores attribute information indicating a degree of obstacle and a target object position indicating a position of the target object;
Position estimation means for estimating the current self-position and posture of the autonomous mobile robot;
Route search means for setting a movement target position and calculating a movement route from the self position to the movement target position;
Movement control means for controlling the autonomous mobile robot to move along the movement path;
Have
The route search means is obtained by an evaluation function using the degree of functional disorder from the positional relationship between the position of the partial space that becomes an obstacle to the function and the target object position obtained from the spatial information and the attribute information . An autonomous mobile robot characterized in that , depending on an evaluation value, processing is performed such that a position in the movement space where the function is easily exhibited is more easily set as the movement target position .
請求項1に記載の自律移動ロボットであって、
前記部分空間は前記移動空間を所定単位の大きさで分割した単位空間であることを特徴とする自律移動ロボット。
The autonomous mobile robot according to claim 1,
The autonomous mobile robot according to claim 1, wherein the partial space is a unit space obtained by dividing the moving space by a predetermined unit size.
請求項1又は2に記載の自律移動ロボットであって、
前記記憶部は、前記機能部の有効範囲を示す機能条件情報を更に記憶し、
前記経路探索手段は、前記機能条件情報と前記目標対象物位置とを用いて前記目標対象物が前記有効範囲内となる位置に前記移動目標位置を設定することを特徴とする自律移動ロボット。
The autonomous mobile robot according to claim 1 or 2,
The storage unit further stores functional condition information indicating an effective range of the functional unit,
The autonomous mobile robot characterized in that the route search means sets the movement target position at a position where the target object is within the effective range using the functional condition information and the target object position.
請求項1〜のいずれか1項に記載の自律移動ロボットであって、
前記記憶部は、前記目標対象物の特徴部位について前記目標対象物位置からの相対位置を示した特徴位置を更に記憶し、
前記経路探索手段は、前記目標対象物位置と前記特徴位置とに基づいて、前記特徴部位に対して前記機能を発揮可能な位置に前記移動目標位置を設定することを特徴とする自律移動ロボット。
The autonomous mobile robot according to any one of claims 1 to 3 ,
The storage unit further stores a characteristic position indicating a relative position from the target object position with respect to a characteristic part of the target object,
The autonomous mobile robot characterized in that the route search means sets the movement target position to a position where the function can be performed with respect to the characteristic part based on the target object position and the characteristic position.
JP2015131974A 2015-06-30 2015-06-30 Autonomous mobile robot Active JP6599143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015131974A JP6599143B2 (en) 2015-06-30 2015-06-30 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131974A JP6599143B2 (en) 2015-06-30 2015-06-30 Autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2017016359A JP2017016359A (en) 2017-01-19
JP6599143B2 true JP6599143B2 (en) 2019-10-30

Family

ID=57828134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131974A Active JP6599143B2 (en) 2015-06-30 2015-06-30 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP6599143B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6772100B2 (en) * 2017-03-28 2020-10-21 株式会社ゼンリンデータコム Dynamic management device for drones, dynamic management method for drones, and dynamic management program for drones
JP6846742B2 (en) * 2017-04-21 2021-03-24 国立研究開発法人産業技術総合研究所 Tapping sound inspection device
JP6771588B2 (en) * 2017-08-07 2020-10-21 パナソニック株式会社 Moving body and control method of moving body
JP6904564B2 (en) * 2017-08-28 2021-07-21 Necソリューションイノベータ株式会社 Flight route setting device, flight route setting method, and program
EP3690393B1 (en) * 2017-09-27 2021-09-15 Sony Group Corporation Information processing device, information processing method, control device, and image processing device
JP6997591B2 (en) * 2017-10-31 2022-01-17 株式会社ゼンリン Computer systems and programs
JP6988704B2 (en) 2018-06-06 2022-01-05 トヨタ自動車株式会社 Sensor control device, object search system, object search method and program
JP7029479B2 (en) * 2019-01-30 2022-03-03 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド Point cloud ghost effect detection system for self-driving cars
JP7447820B2 (en) 2019-02-13 2024-03-12 ソニーグループ株式会社 Mobile objects, communication methods, and programs
JP7441608B2 (en) * 2019-03-22 2024-03-01 セコム株式会社 Destination setting device, destination setting method, destination setting program, and robot
JP7335096B2 (en) 2019-06-07 2023-08-29 ファナック株式会社 Obstacle search device for robot system
JP7258438B2 (en) * 2019-07-10 2023-04-17 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
CN112286176A (en) * 2019-07-24 2021-01-29 北京石头世纪科技股份有限公司 Autonomous mobile robot, and control method, medium, and system thereof
JP2023069316A (en) 2021-11-05 2023-05-18 株式会社日立ハイテク mobile robot system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017428A (en) * 2008-07-12 2010-01-28 Nishi Nihon Kosoku Doro Maintenance Kansai Kk Floor cleaning robot
JP5418072B2 (en) * 2009-08-28 2014-02-19 富士通株式会社 Monitoring control device and monitoring system
JP6080568B2 (en) * 2013-01-30 2017-02-15 セコム株式会社 Monitoring system
JP6155032B2 (en) * 2013-01-31 2017-06-28 セコム株式会社 Shooting system

Also Published As

Publication number Publication date
JP2017016359A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6599143B2 (en) Autonomous mobile robot
JP6029446B2 (en) Autonomous flying robot
JP6664162B2 (en) Autonomous flying robot
US11218689B2 (en) Methods and systems for selective sensor fusion
US20220234733A1 (en) Aerial Vehicle Smart Landing
JP6195450B2 (en) Autonomous flying robot
US11584525B2 (en) Deep learning-based localization of UAVs with respect to nearby pipes
JP6527726B2 (en) Autonomous mobile robot
JP6235213B2 (en) Autonomous flying robot
JP6140458B2 (en) Autonomous mobile robot
JP5990453B2 (en) Autonomous mobile robot
JP6014485B2 (en) Autonomous flying robot
KR101956447B1 (en) Method and apparatus for position estimation of unmanned vehicle based on graph structure
JP6595284B2 (en) Autonomous mobile robot
JP6014484B2 (en) Autonomous mobile robot
WO2022179207A1 (en) Window occlusion detection method and apparatus
JP6758068B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
JP2017182692A (en) Autonomous Mobile Robot
CN112146627A (en) Aircraft imaging system using projected patterns on featureless surfaces
JP6758069B2 (en) Autonomous flying robot
JP7351609B2 (en) Route searching device and program
Rana et al. Comparative study of Automotive Sensor technologies used for Unmanned Driving
JP7130409B2 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191002

R150 Certificate of patent or registration of utility model

Ref document number: 6599143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250