JP6758068B2 - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP6758068B2
JP6758068B2 JP2016072710A JP2016072710A JP6758068B2 JP 6758068 B2 JP6758068 B2 JP 6758068B2 JP 2016072710 A JP2016072710 A JP 2016072710A JP 2016072710 A JP2016072710 A JP 2016072710A JP 6758068 B2 JP6758068 B2 JP 6758068B2
Authority
JP
Japan
Prior art keywords
cluster
imaging
moving object
moving
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016072710A
Other languages
Japanese (ja)
Other versions
JP2017182690A (en
Inventor
晴之 天本
晴之 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016072710A priority Critical patent/JP6758068B2/en
Publication of JP2017182690A publication Critical patent/JP2017182690A/en
Application granted granted Critical
Publication of JP6758068B2 publication Critical patent/JP6758068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動空間内を自律的に移動する自律移動ロボットに関する。 The present invention relates to an autonomous mobile robot that autonomously moves in a moving space.

従来、現在位置である自己位置から所定の移動目標位置に至る移動経路を算出し、当該移動経路に沿うよう自律的に飛行可能な自律飛行ロボットが提案されている。例えば、特許文献1には、賊等の移動物体から所定の離間距離だけ離れた位置に移動目標位置を設定し、自己位置から当該移動目標位置に至る移動経路を生成し、当該移動経路に沿うよう飛行制御される自律飛行ロボットが開示されている。 Conventionally, an autonomous flight robot capable of calculating a movement path from a self-position which is a current position to a predetermined movement target position and autonomously flying along the movement path has been proposed. For example, in Patent Document 1, a movement target position is set at a position separated by a predetermined distance from a moving object such as a thief, a movement path from a self-position to the movement target position is generated, and the movement path is followed. An autonomous flight robot that is controlled to fly is disclosed.

上記従来技術では、移動物体をできるだけ色々な角度から撮影できるよう、移動物体から所定距離だけ離れた周囲の位置に複数の移動目標位置の候補位置(移動候補位置)を設定し、これまで移動物体を撮影できていない方向を撮影できる位置が、移動目標位置として設定されやすいように工夫されている。 In the above-mentioned prior art, a plurality of candidate positions for moving target positions (moving candidate positions) are set at surrounding positions separated by a predetermined distance from the moving object so that the moving object can be photographed from various angles as much as possible. It is devised so that the position where you can shoot in the direction where you cannot shoot is easily set as the movement target position.

特開2014−119901号公報Japanese Unexamined Patent Publication No. 2014-119901

ところで、複数の移動物体が監視エリアに存在しているときに、撮影された画像から監視員が監視エリアの状況把握したい場合や、これらの移動物体を短期間で画像認識したい場合など、いずれもできる限り多くの移動物体を認識可能な解像度で同時撮影することが要求される。しかしながら、上記従来技術では、単体の移動物体のみを考慮するだけで複数の移動物体が存在している場面について考慮していないため、このような要求を満たす位置に適切に移動することができなかった。 By the way, when a plurality of moving objects exist in the monitoring area, the observer wants to grasp the situation of the monitoring area from the captured image, or wants to recognize these moving objects in a short period of time. It is required to simultaneously shoot as many moving objects as possible at a recognizable resolution. However, in the above-mentioned prior art, since only a single moving object is considered and a scene in which a plurality of moving objects exist is not considered, it is not possible to appropriately move to a position satisfying such a requirement. It was.

そこで本発明は、複数の移動物体が存在する監視空間において、移動物体を認識可能な解像度でできる限り多くの移動物体を同時撮影する位置に移動できるようにすることを目的とする。 Therefore, an object of the present invention is to make it possible to move a moving object to a position where as many moving objects as possible are simultaneously photographed with a recognizable resolution in a monitoring space where a plurality of moving objects exist.

本発明の1つの態様は、移動空間内を自律移動し、撮像部により複数の移動物体の撮像画像を取得する自律移動ロボットであって、前記撮像部の視野角を記憶した記憶部と、前記各移動物体の移動物体位置を取得する移動物体位置取得手段と、前記自律移動ロボットの自己位置を推定する位置推定手段と、前記移動物体の集合であるクラスタの前記移動物体位置を包含する最小の円のサイズが前記視野角に応じた上限サイズ以下となるようクラスタリングし、所定基準に従って該クラスタの中から撮像対象とする撮像クラスタを選択し、該撮像クラスタのクラスタサイズと前記視野角とに基づいて前記撮像部の撮像範囲内に該撮像クラスタが含まれる移動目標位置を設定し、前記自己位置から当該移動目標位置に至る移動経路を求める経路探索手段と、前記移動経路に沿って移動するよう制御する移動制御手段と、を有することを特徴とする自律移動ロボットである。
One aspect of the present invention is an autonomous moving robot that autonomously moves in a moving space and acquires captured images of a plurality of moving objects by an imaging unit, the storage unit that stores the viewing angle of the imaging unit, and the storage unit. The minimum including the moving object position acquisition means for acquiring the moving object position of each moving object, the position estimating means for estimating the self-position of the autonomous moving robot, and the moving object position of the cluster which is a set of the moving objects. Clustering is performed so that the size of the circle is equal to or less than the upper limit size according to the viewing angle, an imaging cluster to be imaged is selected from the clusters according to a predetermined standard, and based on the cluster size of the imaging cluster and the viewing angle. A movement target position including the imaging cluster is set within the imaging range of the imaging unit, and a route search means for finding a movement route from the self-position to the movement target position and moving along the movement route. It is an autonomous mobile robot characterized by having a movement control means for controlling.

ここで、前記記憶部は、前記撮像部の解像度を更に記憶し、前記経路探索手段は、前記視野角及び前記解像度に応じた前記上限サイズを設定することが好適である。 Here, it is preferable that the storage unit further stores the resolution of the imaging unit, and the path search means sets the viewing angle and the upper limit size according to the resolution.

また、前記経路探索手段は、前記撮像クラスタのクラスタサイズ、前記視野角及び前記解像度に応じた前記撮像クラスタからの離間距離範囲を求め、該撮像クラスタから当該離間距離範囲内に前記移動目標位置を設定することが好適である。 Further, the route search means obtains a distance range from the imaging cluster according to the cluster size, the viewing angle, and the resolution of the imaging cluster, and sets the moving target position within the separation distance range from the imaging cluster. It is preferable to set.

また、前記経路探索手段は、予め定めた離間距離及び前記視野角に応じた撮像可能範囲を前記上限サイズに設定して前記複数の移動物体をクラスタリングすることが好適である。 Further, it is preferable that the route search means clusters the plurality of moving objects by setting the imaging range according to the predetermined separation distance and the viewing angle to the upper limit size.

また、前記経路探索手段は、前記複数の移動物体の中から優先撮影対象を選択し、該優先撮影対象に選択された移動物体が含まれる前記クラスタを撮像クラスタとして選択することが好適である。 Further, it is preferable that the route search means selects a priority imaging target from the plurality of moving objects, and selects the cluster including the moving object selected as the priority imaging target as an imaging cluster.

本発明によれば、複数の移動物体が存在する監視空間において、できる限り多くの移動物体を同時撮影する位置に移動することができる。 According to the present invention, in a monitoring space where a plurality of moving objects exist, it is possible to move as many moving objects as possible to a position where they are simultaneously photographed.

本発明の実施の形態における自律飛行ロボットの構成を示す図である。It is a figure which shows the structure of the autonomous flight robot in embodiment of this invention. 本発明の実施の形態における自律飛行ロボットシステムの構成を示す図である。It is a figure which shows the structure of the autonomous flight robot system in embodiment of this invention. 本発明の実施の形態における自律飛行ロボットの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the autonomous flight robot in embodiment of this invention. 本発明の実施の形態における経路探索処理のフロー図である。It is a flow chart of the route search process in embodiment of this invention. 本発明の実施の形態における上限サイズの算出を説明する図である。It is a figure explaining the calculation of the upper limit size in embodiment of this invention. 本発明の実施の形態におけるクラスタリングを説明する図である。It is a figure explaining clustering in embodiment of this invention. 本発明の実施の形態における離間距離範囲を説明する図である。It is a figure explaining the separation distance range in embodiment of this invention. 本発明の実施の形態における移動経路の生成を説明する図である。It is a figure explaining the generation of the movement path in embodiment of this invention. 本発明の実施の形態におけるローカル目標の算出処理を説明する図である。It is a figure explaining the calculation process of the local target in embodiment of this invention.

本発明の実施の形態における自律飛行ロボット1は、図1の概観図に示すように、クアッドロータ型の小型無人ヘリコプタである。なお、本発明の適用範囲は、クアッドロータ型の小型無人ヘリコプタに限定されるものではなく、シングルロータ型の小型無人ヘリコプタや、自律移動する走行型のロボットについても同様に適用することができる。 The autonomous flight robot 1 according to the embodiment of the present invention is a quad rotor type small unmanned helicopter as shown in the overview diagram of FIG. The scope of application of the present invention is not limited to the quad-rotor type small unmanned helicopter, but can be similarly applied to the single-rotor type small unmanned helicopter and the autonomously moving traveling type robot.

自律飛行ロボット1は、図2のシステム構成図に示すように、外部の警備センタ100や管理装置102と通信し、移動空間内に存在する複数の移動物体Mを自律移動して撮像するように構成されている。移動物体Mは、例えば、監視領域内に侵入した人物(賊等)や車両等である。 As shown in the system configuration diagram of FIG. 2, the autonomous flight robot 1 communicates with the external security center 100 and the management device 102, autonomously moves a plurality of moving objects M existing in the moving space, and images the images. It is configured. The moving object M is, for example, a person (thief or the like) or a vehicle that has invaded the monitoring area.

警備センタ100と管理装置102とはインターネット等の情報通信網110を介して情報伝達可能に接続される。また、自律飛行ロボット1と管理装置102は、無線通信等によって情報伝達可能に接続される。警備センタ100は、管理装置102を介して自律飛行ロボット1と通信を行い、自律飛行ロボット1によって撮像された移動物体Mの撮像画像を受信する。警備センタ100は、撮像画像に対して画像処理を行い、警備センタ100にて異常監視している管理者等(図示しない)に警告を発するような機能を備えていてもよい。 The security center 100 and the management device 102 are connected so as to be able to transmit information via an information communication network 110 such as the Internet. Further, the autonomous flight robot 1 and the management device 102 are connected so as to be able to transmit information by wireless communication or the like. The security center 100 communicates with the autonomous flight robot 1 via the management device 102, and receives an image captured by the moving object M captured by the autonomous flight robot 1. The security center 100 may have a function of performing image processing on the captured image and issuing a warning to an administrator or the like (not shown) who is monitoring an abnormality at the security center 100.

管理装置102は、地面や壁面等に設置された固定型の移動物体検出センサ104(104a,104b・・・)を備え、各移動物体Mの位置を検知する。移動物体検出センサ104は、例えば、レーザセンサとすることができる。レーザセンサは、一定の角度サンプル間隔の角度毎にレーザを二次元的にスキャンすることによって、地面(又は床面)から一定の高さの水平面における検知範囲内に存在する物体(障害物)との距離情報を極座標値として取得する。レーザセンサは、放射状にレーザ光である探査信号を走査し、物体に反射して戻ってきた探査信号を受信して、送信と受信の時間差から物体までの距離を算出し、レーザセンサの設置位置の座標及び探査信号を送信した方向と算出した距離から当該物体の位置の極座標値を求め、当該極座標値から3次元の直交座標値(Xt,Yt,Zt)を求める。管理装置102は、移動物体検出センサ104によって求められた各移動物体Mの位置を、各移動物体Mの識別子である移動物体IDを付与して自律飛行ロボット1へ送信する。自律飛行ロボット1は、各移動物体Mの位置を受信すると、その位置に基づいて自らの移動経路を算出し、当該移動経路に沿って移動する。なお、管理装置102は、レーザセンサの検知範囲が重複する領域に存在する移動物体Mの同一性を検証することで複数のレーザセンサの検知範囲に渡る移動物体Mの追跡を行う。すなわち、レーザセンサ104aの検知範囲に存在する移動物体Mがレーザセンサ104bの検知範囲に移動したとしても、管理装置102は、当該移動物体Mが同一の物体であると判定することができる。 The management device 102 includes fixed moving object detection sensors 104 (104a, 104b ...) Installed on the ground, a wall surface, or the like, and detects the position of each moving object M. The moving object detection sensor 104 can be, for example, a laser sensor. The laser sensor two-dimensionally scans the laser at every angle of a certain angle sample interval to detect an object (obstacle) existing within the detection range in a horizontal plane at a certain height from the ground (or floor surface). The distance information of is acquired as a polar coordinate value. The laser sensor radially scans the exploration signal, which is the laser beam, receives the exploration signal reflected by the object and returns, calculates the distance to the object from the time difference between transmission and reception, and installs the laser sensor. The polar coordinate value of the position of the object is obtained from the coordinates of the above and the direction in which the search signal is transmitted and the calculated distance, and the three-dimensional Cartesian coordinate values (X t , Y t , Z t ) are obtained from the polar coordinate value. The management device 102 transmits the position of each moving object M obtained by the moving object detection sensor 104 to the autonomous flying robot 1 by assigning a moving object ID which is an identifier of each moving object M. When the autonomous flight robot 1 receives the position of each moving object M, it calculates its own movement path based on the position and moves along the movement path. The management device 102 tracks the moving object M over the detection ranges of the plurality of laser sensors by verifying the identity of the moving objects M existing in the regions where the detection ranges of the laser sensors overlap. That is, even if the moving object M existing in the detection range of the laser sensor 104a moves to the detection range of the laser sensor 104b, the management device 102 can determine that the moving object M is the same object.

以下、図1の概観図及び図3の機能ブロック図を参照して、自律飛行ロボット1の構成及び機能について説明する。 Hereinafter, the configuration and function of the autonomous flight robot 1 will be described with reference to the overview diagram of FIG. 1 and the functional block diagram of FIG.

自律飛行ロボット1は、図1に示すように、4枚のロータ(プロペラ)2(2a〜2d)を一平面上に有する。各ロータ2は、バッテリ(二次電池:図示しない)により駆動されるモータ4(4a〜4d)を用いて回転させられる。一般的に、シングルロータ型のヘリコプタでは、メインロータによって発生する反トルクをテールロータが生み出すモーメントで相殺することによって方位角を保っている。一方、自律飛行ロボット1のようなクアッドロータ型のヘリコプタでは、前後・左右で異なる方向に回転するロータ2を用いることで反トルクの相殺を行っている。そして、各ロータ2の回転数(fa〜fd)を制御することにより、様々な機体の移動や姿勢の調節を行うことができる。例えば、機体をヨー方向に回転させたいときは、前後のロータ2a、2cと左右ロータ2d、2bの回転数に差を与えればよい。 As shown in FIG. 1, the autonomous flight robot 1 has four rotors (propellers) 2 (2a to 2d) on one plane. Each rotor 2 is rotated by using a motor 4 (4a to 4d) driven by a battery (secondary battery: not shown). Generally, in a single rotor type helicopter, the azimuth is maintained by canceling the anti-torque generated by the main rotor with the moment generated by the tail rotor. On the other hand, in a quad rotor type helicopter such as the autonomous flight robot 1, anti-torque is canceled by using a rotor 2 that rotates in different directions in the front-rear direction and the left-right direction. Then, by controlling the rotation speeds (fa to fd) of each rotor 2, various movements and postures of the aircraft can be adjusted. For example, when it is desired to rotate the machine body in the yaw direction, the rotation speeds of the front and rear rotors 2a and 2c and the left and right rotors 2d and 2b may be different.

撮像部3は、例えばレンズなどの光学系および所定画素数(例えば640×480画素からなる解像度)のCCDやCMOSなどの2次元アレイ素子を有する二次元イメージセンサで構成され、移動空間の撮像画像を所定の時間間隔で取得するいわゆるカラーカメラである。本実施の形態では、撮像部3は、その光軸が自律飛行ロボット1の正面方向を撮像するよう筐体部分に設置され、かつ、水平面(XY平面)から予め定めた俯角θにより斜め下方の空間を視野角φ(画角)において撮像するよう設置されている。取得した撮像画像は後述する制御部7に出力され、制御部7により記憶部8に記憶されたり、後述する通信部9を介して管理装置102に送信されたりする。 The image pickup unit 3 is composed of, for example, an optical system such as a lens and a two-dimensional image sensor having a two-dimensional array element such as a CCD or CMOS having a predetermined number of pixels (for example, a resolution of 640 × 480 pixels), and is an image captured in a moving space. Is a so-called color camera that acquires images at predetermined time intervals. In the present embodiment, the imaging unit 3 is installed in the housing portion so that its optical axis images the front direction of the autonomous flying robot 1, and is obliquely downward from the horizontal plane (XY plane) by a predetermined depression angle θ. It is installed so that the space is imaged at a viewing angle φ (angle of view). The acquired captured image is output to the control unit 7 described later, stored in the storage unit 8 by the control unit 7, or transmitted to the management device 102 via the communication unit 9 described later.

距離検出センサ5は、自律飛行ロボット1の周囲に存在する障害物と自律飛行ロボット1との間の距離を検出し、センサ検出範囲内に存在する障害物の相対的な位置を取得するセンサである。本実施の形態では、距離検出センサ5としてマイクロ波センサを備える。マイクロ波センサは、空間にマイクロ波を放出し、その反射波を検知することによって、自律飛行ロボット1の周囲にある物体を探知し、その物体までの距離を求める。距離検出センサ5は、例えば、自律飛行ロボット1の前方に向けて設け、移動物体Mまでの距離を測定するために用いることができる。また、距離検出センサ5は、例えば、自律飛行ロボット1の下部に下向きに設け、地面との距離(高度)を測定するために用いることもできる。また、距離検出センサ5は、例えば、撮像部3の光軸方向に向けて設け、撮像部3の撮像対象物である移動物体Mまでの距離を測定するために用いることができる。 The distance detection sensor 5 is a sensor that detects the distance between an obstacle existing around the autonomous flight robot 1 and the autonomous flight robot 1 and acquires the relative position of the obstacle existing within the sensor detection range. is there. In the present embodiment, a microwave sensor is provided as the distance detection sensor 5. The microwave sensor emits microwaves into space and detects the reflected waves to detect an object around the autonomous flight robot 1 and obtain the distance to the object. The distance detection sensor 5 can be provided, for example, toward the front of the autonomous flight robot 1 and used to measure the distance to the moving object M. Further, the distance detection sensor 5 can be provided, for example, downward on the lower part of the autonomous flight robot 1 and used to measure the distance (altitude) from the ground. Further, the distance detection sensor 5 can be provided, for example, toward the optical axis direction of the image pickup unit 3 and can be used to measure the distance to the moving object M which is the image pickup target of the image pickup unit 3.

位置検出センサ6は、自律飛行ロボット1の現在位置を取得するためのセンサである。位置検出センサ6は、例えば、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する。位置検出センサ6は、複数の航法衛星から送信される航法信号を受信して制御部7へ入力する。なお、位置検出センサ6は、レーザスキャナ、ジャイロセンサ、電子コンパス、気圧センサ等の他のセンサを用いて既知の技術により自己位置を得るための情報を取得するものとしてもよい。 The position detection sensor 6 is a sensor for acquiring the current position of the autonomous flight robot 1. The position detection sensor 6 receives radio waves (navigation signals) transmitted from a navigation satellite (artificial satellite) such as GNSS (Global Navigation Satellite System), for example. The position detection sensor 6 receives navigation signals transmitted from a plurality of navigation satellites and inputs them to the control unit 7. The position detection sensor 6 may use other sensors such as a laser scanner, a gyro sensor, an electronic compass, and a barometric pressure sensor to acquire information for obtaining a self-position by a known technique.

通信部9は管理装置102との間で、例えば無線LANや携帯電話回線等により無線通信するための通信モジュールである。本実施の形態では、撮像部3によって取得した撮像画像を通信部9により管理装置102に送信し、当該撮像画像を管理装置102から警備センタ100に送信することにより、警備員等が遠隔から侵入者を監視することを可能にする。また、通信部9は、管理装置102から各移動物体Mの位置(座標:Xt,Yt,Zt)を受信することにより、後述するような移動経路の設定を可能にする。すなわち、本実施の形態では通信部9が本発明の移動物体位置取得手段として機能する。 The communication unit 9 is a communication module for wireless communication with the management device 102 by, for example, a wireless LAN or a mobile phone line. In the present embodiment, the captured image acquired by the imaging unit 3 is transmitted to the management device 102 by the communication unit 9, and the captured image is transmitted from the management device 102 to the security center 100, whereby a security guard or the like remotely invades. Allows you to monitor people. Further, the communication unit 9 receives the position (coordinates: X t , Y t , Z t ) of each moving object M from the management device 102, thereby enabling the setting of the moving route as described later. That is, in the present embodiment, the communication unit 9 functions as the moving object position acquisition means of the present invention.

記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部8は、各種プログラムや各種データを記憶し、制御部7との間でこれらの情報を入出力する。各種データには、移動物体位置81、クラスタ情報82、ボクセル情報83、撮像条件情報84等の制御部7の各処理に用いられる情報、各センサ等の出力値及び撮像画像等が含まれる。 The storage unit 8 is an information storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The storage unit 8 stores various programs and various data, and inputs and outputs these information to and from the control unit 7. The various data include information used for each process of the control unit 7, such as moving object position 81, cluster information 82, voxel information 83, and imaging condition information 84, output values of each sensor, captured images, and the like.

移動物体位置81は、管理装置102から受信した各移動物体Mの識別子である移動物体IDと、当該移動物体Mの位置情報(座標:Xt,Yt,Zt)とを対応付けた情報である。本実施の形態では、移動物体位置81を各移動物体Mの足元位置、すなわち移動物体Mが地面(床面)に接している位置とする。制御部7は、通信部9を介して各移動物体Mの移動物体ID及び位置を受信すると移動物体位置81として記憶部8に記憶させる。 The moving object position 81 is information in which the moving object ID, which is an identifier of each moving object M received from the management device 102, is associated with the position information (coordinates: X t , Y t , Z t ) of the moving object M. Is. In the present embodiment, the moving object position 81 is set to the foot position of each moving object M, that is, the position where the moving object M is in contact with the ground (floor surface). When the control unit 7 receives the moving object ID and the position of each moving object M via the communication unit 9, the control unit 7 stores the moving object ID and the position as the moving object position 81 in the storage unit 8.

クラスタ情報82は、移動物体Mの集合であるクラスタに関する情報であり、クラスタの識別子であるクラスタIDと、クラスタを構成する移動物体Mの移動物体IDと、クラスタの大きさを表す値であるクラスタサイズと、クラスタの移動空間における位置を表すクラスタ位置と、を対応付けた情報である。本実施の形態では、クラスタを構成する各移動物体Mの移動物体位置81を包含する最小の円を求め、当該円の半径をクラスタサイズとし、当該円の地表面における中心位置の座標(X,Y)をクラスタ位置として、後述するように経路探索手段73によって算出されるものとする。 The cluster information 82 is information about a cluster which is a set of moving objects M, and is a cluster ID which is an identifier of the cluster, a moving object ID of the moving objects M constituting the cluster, and a cluster which is a value indicating the size of the cluster. This is information that associates the size with the cluster position that represents the position of the cluster in the moving space. In the present embodiment, the smallest circle including the moving object position 81 of each moving object M constituting the cluster is obtained, the radius of the circle is set as the cluster size, and the coordinates (X,) of the center position of the circle on the ground surface are obtained. It is assumed that Y) is set as the cluster position and calculated by the route search means 73 as described later.

ボクセル情報83は、移動空間をボクセル空間として複数のボクセルに分割して移動空間の障害物の構造等を表した情報であり、予め管理者等によって設定され記憶部8に記憶され、また、後述するように位置推定手段71にて更新される情報である。本実施の形態では、移動空間を所定の大きさ(例えば15cm×15cm×15cm)のボクセルに等分割し、各ボクセルの識別子であるボクセルIDと、移動空間におけるボクセルの位置(三次元座標)と、ボクセル属性と、ボクセルコスト値とを対応付けてボクセル情報83として記憶する。飛行禁止エリアに相当するボクセルは、そのボクセル属性を「占有ボクセル」と定義して、自律飛行ロボット1が移動できない空間とする。なお飛行禁止エリアには、例えば建造物等の障害物に相当するエリア、飛行が許可された敷地外のエリア、飛行が許可された高度よりも高いエリアなどが挙げられる。そして、占有ボクセルの近くに存在する空間に位置するボクセルのボクセル属性を「近接ボクセル」、それ以外の自由に飛行可能なエリアに位置するボクセルのボクセル属性を「自由ボクセル」と定義する。 The voxel information 83 is information representing the structure of obstacles in the moving space by dividing the moving space into a plurality of voxels as the voxel space, which is set in advance by an administrator or the like and stored in the storage unit 8, and will be described later. This is the information updated by the position estimation means 71 so as to be performed. In the present embodiment, the moving space is equally divided into voxels of a predetermined size (for example, 15 cm × 15 cm × 15 cm), the voxel ID which is the identifier of each voxel, and the position (three-dimensional coordinates) of the voxels in the moving space. , The voxel attribute and the voxel cost value are associated with each other and stored as voxel information 83. The voxel corresponding to the no-fly zone defines its voxel attribute as "occupied voxel" to be a space in which the autonomous flight robot 1 cannot move. The no-fly zone includes, for example, an area corresponding to an obstacle such as a building, an area outside the site where flight is permitted, and an area higher than the altitude at which flight is permitted. Then, the voxel attribute of the voxel located in the space existing near the occupied voxel is defined as "proximity voxel", and the voxel attribute of the voxel located in the other freely flyable area is defined as "free voxel".

各ボクセルには、後述する経路探索手段73にて移動経路を生成する際に利用できるよう、占有度を示すボクセルコスト値が関連付けて登録される。ボクセルコスト値は、占有ボクセルにおいて最大値Cmaxをとり、占有ボクセルからの距離が大きくなるほど小さな値となるように設定される。例えば、あるボクセル(評価ボクセル)のボクセルコスト値は、ボクセルコスト値=Cmax × exp{−λ×R}の計算式により算出することが好適である。ここでλは実験によって求めたパラメータとし、Rは評価ボクセルに最も近い占有ボクセルからの距離とする。そして、予め定めた閾値以上のボクセルコスト値を有するボクセルを「近接ボクセル」とする。また、ボクセルコスト値が当該閾値よりも小さいボクセルを「自由ボクセル」とし、自由ボクセルとみなされたボクセルのボクセルコスト値を0と設定する。 A voxel cost value indicating the degree of occupancy is associatedly registered with each voxel so that it can be used when a movement route is generated by the route search means 73 described later. The voxel cost value takes the maximum value C max in the occupied voxel, and is set so as to become smaller as the distance from the occupied voxel increases. For example, the voxel cost value of a certain voxel (evaluation voxel) is preferably calculated by the formula of voxel cost value = C max × exp {−λ × R}. Here, λ is a parameter obtained by experiment, and R is the distance from the occupied voxel closest to the evaluation voxel. Then, a voxel having a voxel cost value equal to or higher than a predetermined threshold value is referred to as a "proximity voxel". Further, a voxel whose voxel cost value is smaller than the threshold value is set as a "free voxel", and a voxel cost value of a voxel regarded as a free voxel is set to 0.

撮像条件情報84は撮像部3の視野を表す情報であり、本実施の形態では撮像部3の視野角φ及び解像度が撮像条件情報84として記憶部8に記憶されている。すなわち、撮像条件情報84は、自律飛行ロボット1に設置した撮像部3の性能にしたがって管理者等によって適宜設定される値である。なお、視野角φを変更可能なズーム機能や、撮像する解像度を変更可能な解像度変更機能を備えた撮像部3を搭載した他の実施の形態においては、適宜現在の視野角φ及び解像度についての情報を取得し、撮像条件情報84として記憶部8に記憶しもよい。 The imaging condition information 84 is information representing the field of view of the imaging unit 3, and in the present embodiment, the viewing angle φ and the resolution of the imaging unit 3 are stored in the storage unit 8 as the imaging condition information 84. That is, the imaging condition information 84 is a value appropriately set by the administrator or the like according to the performance of the imaging unit 3 installed in the autonomous flight robot 1. In another embodiment equipped with the imaging unit 3 having a zoom function capable of changing the viewing angle φ and a resolution changing function capable of changing the resolution to be imaged, the current viewing angle φ and the resolution are appropriately referred to. The information may be acquired and stored in the storage unit 8 as the imaging condition information 84.

制御部7は、CPU等を備えたコンピュータで構成され、位置推定処理、速度推定処理、経路探索処理、経路追従制御を行う一連の処理として、位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74を含んでいる。 The control unit 7 is composed of a computer equipped with a CPU or the like, and has a position estimation means 71, a speed estimation means 72, and a route search means as a series of processes for performing position estimation processing, speed estimation processing, route search processing, and route tracking control. 73, movement control means 74 is included.

位置推定手段71は、位置検出センサ6の出力に基づいて、移動空間における自律飛行ロボット1の現在位置(自己位置)を推定する位置推定処理を行う。 The position estimation means 71 performs a position estimation process for estimating the current position (self-position) of the autonomous flight robot 1 in the moving space based on the output of the position detection sensor 6.

具体的には、位置検出センサ6から得られた複数の航法衛星からの航法信号に基づいて周知技術によって推定した緯度・経度と、距離検出センサ5から得られた高度とから自己位置の座標(Xs,Ys,Zs)を計算する。さらに、電子コンパスやジャイロセンサなどの位置検出センサ6からの出力を受けて自己位置として姿勢YAWを求める。なお、自己位置の推定方法はこれに限定されるものではなく、他の方法を用いて自律飛行ロボット1の現在位置を推定してもよい。 Specifically, the coordinates of the self-position from the latitude / longitude estimated by a well-known technique based on the navigation signals from a plurality of navigation satellites obtained from the position detection sensor 6 and the altitude obtained from the distance detection sensor 5 ( X s , Y s , Z s ) are calculated. Further, the attitude YAW is obtained as the self-position by receiving the output from the position detection sensor 6 such as the electronic compass and the gyro sensor. The self-position estimation method is not limited to this, and the current position of the autonomous flight robot 1 may be estimated by using another method.

位置推定手段71は、推定された自己位置(座標:Xs,Ys,Zs及び姿勢YAW)と管理装置102から受信した移動物体Mの位置(座標:Xt,Yt,Zt)を経路探索手段73へ出力する。また、位置推定手段71は、推定された自己位置を速度推定手段72及び移動制御手段74へ出力する。 The position estimating means 71 has an estimated self-position (coordinates: X s , Y s , Z s and attitude YAW) and a position of a moving object M received from the management device 102 (coordinates: X t , Y t , Z t ). Is output to the route search means 73. Further, the position estimation means 71 outputs the estimated self-position to the speed estimation means 72 and the movement control means 74.

なお、位置推定手段71は、移動物体Mの位置に基づいてボクセル情報83を更新する処理を行う。具体的には、記憶部8のボクセル情報83に基づいたボクセル空間に移動物体Mの位置を重心として予め定めた移動物体Mの大きさと略同じ大きさの円柱モデル(例えば、監視対象の移動物体Mを侵入者であるとしたとき、底面の半径0.3m、高さ1.7mの円柱モデル)を配置し、当該円柱モデルと干渉するボクセルを占有ボクセルとして設定することによりボクセル情報83を更新する。後述するように、自律飛行ロボット1は、占有ボクセルには移動しないように飛行制御されるが、上記のように移動物体Mの位置に基づいてボクセル情報83を更新することにより、自律飛行ロボット1と移動物体Mとの接触を回避することができる。 The position estimation means 71 performs a process of updating the voxel information 83 based on the position of the moving object M. Specifically, a cylindrical model having a size substantially the same as the size of the moving object M predetermined in the voxel space based on the voxel information 83 of the storage unit 8 with the position of the moving object M as the center of gravity (for example, the moving object to be monitored). Assuming that M is an intruder, the voxel information 83 is updated by arranging a cylindrical model with a bottom radius of 0.3 m and a height of 1.7 m) and setting a voxel that interferes with the cylindrical model as an occupied voxel. To do. As will be described later, the autonomous flight robot 1 is flight-controlled so as not to move to the occupied voxel. However, by updating the voxel information 83 based on the position of the moving object M as described above, the autonomous flight robot 1 And contact with the moving object M can be avoided.

速度推定手段72は、後述する移動制御手段74における移動制御で利用するため、自律飛行ロボット1の現在の飛行速度(vx,vy,vz,vyaw)を推定する速度推定処理を行う。本実施の形態では、位置推定手段71にて推定した自己位置(座標:Xs,Ys,Zs及び姿勢YAW)の時間変化から飛行速度を求める。この際、測定誤差等の影響を考慮して拡張カルマンフィルタを利用して飛行速度を推定することが好適である。この他にも、GNSSにおけるドップラー効果を利用した速度推定方法を用いてもよい。 Since the speed estimation means 72 is used for movement control in the movement control means 74, which will be described later, the speed estimation means 72 performs a speed estimation process for estimating the current flight speed (v x , v y , v z , v yaw ) of the autonomous flight robot 1. .. In the present embodiment, the flight speed is obtained from the time change of the self-position (coordinates: X s , Y s , Z s and attitude YAW) estimated by the position estimation means 71. At this time, it is preferable to estimate the flight speed by using an extended Kalman filter in consideration of the influence of measurement error and the like. In addition to this, a speed estimation method using the Doppler effect in GNSS may be used.

経路探索手段73は、位置推定手段71で推定された自己位置と、記憶部8に記憶された移動物体位置81及び各種情報とを用いて、自己位置から所定の移動目標位置に至る移動経路を算出する経路探索処理を行う。以下、本実施の形態の自律飛行ロボット1に係る経路探索手段73が実行する経路探索処理の流れの一例について、図4を参照しながら詳細に説明する。 The route search means 73 uses the self-position estimated by the position estimation means 71, the moving object position 81 stored in the storage unit 8, and various information to obtain a movement route from the self-position to a predetermined movement target position. Performs the route search process to be calculated. Hereinafter, an example of the flow of the route search process executed by the route search means 73 according to the autonomous flight robot 1 of the present embodiment will be described in detail with reference to FIG.

経路探索処理では、まず、後述するクラスタリングにおけるクラスタの上限サイズを決定する処理を行う(ST1)。経路探索手段73は、撮像条件情報84の視野角φと解像度とに基づいて、移動物体Mを認識可能となるよう、クラスタの上限サイズを算出する。本実施の形態では、まず、解像度に基づいて移動物体Mからの最大離間距離Lmaxを求める。すなわち、解像度が高くなるほど移動物体Mから遠くに離れても当該移動物体Mを認識でき、反対に解像度が低くなるほど移動物体Mに近づかなければ当該移動物体Mを認識できないため、解像度が高くなるほど、大きくなるよう最大離間距離Lmaxを求める。最大離間距離Lmaxは、予め実験により距離と解像度との関係を求めておき、適用する解像度に応じて求めてもよい。そして、求めた最大離間距離Lmaxと視野角φとを用いて上限サイズrmaxを、rmax={Lmax×sin(φ/2)}/{sin(φ/2)+1}から求める。すなわち、図5に表すように、自律飛行ロボット1から最大離間距離Lmaxの位置に存在していると仮定した移動物体M0を、クラスタの最遠端の位置に存在する移動物体とし、当該移動物体M0の位置を最遠端位置とする円であって、視野角φで定まる撮像範囲に接する円の半径として、上限サイズrmaxを求める。なお、本実施の形態では、上限サイズを撮像部3の視野角φと解像度に基づいて算出しているが、これに限らず、予め実験により定めた固定値を設定し、当該固定値を用いてもよい。 In the route search process, first, a process of determining the upper limit size of the cluster in clustering described later is performed (ST1). The route search means 73 calculates the upper limit size of the cluster so that the moving object M can be recognized based on the viewing angle φ and the resolution of the imaging condition information 84. In the present embodiment, first, the maximum distance L max from the moving object M is obtained based on the resolution. That is, the higher the resolution, the more the moving object M can be recognized even if it is farther away from the moving object M, and conversely, the lower the resolution, the more the moving object M cannot be recognized unless it approaches the moving object M. Find the maximum separation distance L max so that it becomes large. The maximum separation distance L max may be obtained by experimentally determining the relationship between the distance and the resolution in advance and depending on the resolution to be applied. Then, the upper limit size r max is obtained from r max = {L max × sin (φ / 2)} / {sin (φ / 2) +1} by using the obtained maximum separation distance L max and the viewing angle φ. That is, as shown in FIG. 5, the moving object M 0 that is assumed to exist at the position of the maximum distance L max from the autonomous flying robot 1 is set as the moving object that exists at the farthest end position of the cluster. The upper limit size r max is obtained as the radius of the circle whose farthest end position is the position of the moving object M 0 and which is in contact with the imaging range determined by the viewing angle φ. In the present embodiment, the upper limit size is calculated based on the viewing angle φ and the resolution of the imaging unit 3, but the present invention is not limited to this, and a fixed value determined in advance by an experiment is set and the fixed value is used. You may.

次に、経路探索処理では、ST1にて求めた上限サイズrmaxと、移動物体位置81とを用いて、複数の移動物体Mの組み合わせからなるクラスタを生成するクラスタリングを実行する(ST2)。本実施の形態では、既知の技術であるユークリッドクラスタリング手法を用いてクラスタリングする。この際、上限サイズrmaxが、生成されるクラスタの最大半径となるよう、ユークリッドクラスタリング距離を設定する。なお、クラスタリングの方法は従来から多数提案されており、適宜公知の方法を採用すればよい。これによって、上限サイズrmax以下の半径からなる円に含まれる位置に存在する複数の移動物体Mからなるクラスタを生成することが可能となる。経路探索手段73は、クラスタリングによってクラスタを生成すると、各クラスタの情報をクラスタ情報82として記憶部8に記憶する。図6は、移動空間の一部を真上から見下ろしたときの図であり、移動空間内に存在する移動物体M1〜M6を上限サイズrmaxによりクラスタリングした結果を表す図である。同図では、クラスタC1として移動物体M1〜M4がクラスタリングされ、クラスタC2として移動物体M5、M6がクラスタリングされている。なお、クラスタC1、C2の半径であるクラスタサイズは、上限サイズrmax以下となるようクラスタリングされているものとする。 Next, in the route search process, clustering for generating a cluster composed of a combination of a plurality of moving objects M is executed by using the upper limit size r max obtained in ST1 and the moving object position 81 (ST2). In this embodiment, clustering is performed using a known technique, the Euclidean clustering method. At this time, the Euclidean clustering distance is set so that the upper limit size r max is the maximum radius of the generated cluster. Many clustering methods have been proposed so far, and known methods may be appropriately adopted. This makes it possible to generate a cluster consisting of a plurality of moving objects M existing at positions included in a circle having a radius of the upper limit size r max or less. When the route search means 73 generates clusters by clustering, the route search means 73 stores the information of each cluster as cluster information 82 in the storage unit 8. FIG. 6 is a view when a part of the moving space is looked down from directly above, and is a diagram showing the result of clustering the moving objects M1 to M6 existing in the moving space with the upper limit size r max . In the figure, moving objects M1 to M4 are clustered as cluster C1, and moving objects M5 and M6 are clustered as cluster C2. It is assumed that the cluster size, which is the radius of the clusters C1 and C2, is clustered so as to be equal to or less than the upper limit size r max .

次に、経路探索処理では、ST2にて生成したクラスタの中から、自律飛行ロボット1の撮像対象とするクラスタである撮像クラスタを選択する処理を行う(ST3)。本実施の形態では、位置推定手段71にて求めた自己位置に最も近いクラスタを撮像クラスタとして選択する。ここでは、図6のクラスタC1を選択クラスタに設定したとして、以下では説明する。 Next, in the route search process, a process of selecting an imaging cluster, which is a cluster to be imaged by the autonomous flight robot 1, is performed from the clusters generated in ST2 (ST3). In the present embodiment, the cluster closest to the self-position obtained by the position estimation means 71 is selected as the imaging cluster. Here, assuming that the cluster C1 of FIG. 6 is set as the selected cluster, it will be described below.

次に、経路探索処理では、ST3にて選択した撮像クラスタのクラスタサイズをクラスタ情報82から読み出し、当該クラスタサイズと撮像条件情報84とに基づいて撮像クラスタからの離間距離の範囲を示す離間距離範囲を求める(ST4)。ここで、離間距離とは、選択クラスタに追従飛行するにあたって、自律飛行ロボット1と撮像クラスタとの水平面における維持すべき相対距離である。本実施の形態では、図7に表すように、撮像クラスタC1のクラスタサイズをr1としたとき、当該撮像クラスタC1からの最も小さい離間距離である最小離間距離Lminを、Lmin=r1/{sin(φ/2)}により求める。すなわち、撮像部3の撮像範囲内に撮像クラスタが含まれる最も近い距離として最小離間距離Lminを求める。そして、当該最小離間距離Lminと、ST1にて求めた最大離間距離Lmaxとを用いて、撮像クラスタからの離間距離範囲を求める。 Next, in the route search process, the cluster size of the imaging cluster selected in ST3 is read from the cluster information 82, and the separation distance range indicating the range of the separation distance from the imaging cluster based on the cluster size and the imaging condition information 84. (ST4). Here, the separation distance is a relative distance between the autonomous flight robot 1 and the imaging cluster that should be maintained in the horizontal plane when flying following the selected cluster. In the present embodiment, as shown in FIG. 7, when the cluster size of the imaging cluster C 1 is r 1 , the minimum separation distance L min , which is the smallest separation distance from the imaging cluster C 1 , is set to L min = Obtained by r 1 / {sin (φ / 2)}. That is, the minimum separation distance L min is obtained as the shortest distance including the imaging cluster within the imaging range of the imaging unit 3. Then, the distance range from the imaging cluster is obtained by using the minimum distance L min and the maximum distance L max obtained in ST1.

次に、経路探索処理では、ST4にて求めた離間距離範囲内の離間距離を設定する(ST5)。本実施の形態では、予め設定された方針に従って離間距離を選択する。例えば、移動物体Mの詳細を撮影するために、移動物体Mにできるだけ近づく方針が設定されていれば、離間距離範囲における最も小さい値である最小離間距離Lminを離間距離として設定する。一方、移動物体Mからの攻撃を回避しやすいよう、移動物体Mからできるだけ距離をとる方針が設定されていれば、離間距離範囲における最も大きい値である最大離間距離Lmaxを離間距離として設定する。この他にも、現状に応じて方針を変更してもよい。例えば、撮像クラスタを構成する移動物体Mの平均移動速度が大きいほど、離間距離範囲内における大きい離間距離として設定してもよい。いずれの場合も、ST4にて求めた離間距離範囲内の離間距離であれば、撮像部3の撮像範囲内に撮像クラスタが含まれる位置を求めることができる。 Next, in the route search process, the separation distance within the separation distance range obtained in ST4 is set (ST5). In the present embodiment, the separation distance is selected according to a preset policy. For example, if a policy of approaching the moving object M as much as possible is set in order to photograph the details of the moving object M, the minimum separation distance L min , which is the smallest value in the separation distance range, is set as the separation distance. On the other hand, if the policy of keeping the distance from the moving object M as much as possible is set so as to easily avoid the attack from the moving object M, the maximum separation distance L max , which is the largest value in the separation distance range, is set as the separation distance. .. In addition to this, the policy may be changed according to the current situation. For example, the larger the average moving speed of the moving objects M constituting the imaging cluster, the larger the separation distance may be set within the separation distance range. In either case, if the distance is within the distance range obtained in ST4, the position where the image pickup cluster is included in the image pickup range of the image pickup unit 3 can be obtained.

次に、経路探索処理では、ST5にて設定した離間距離と、クラスタ情報82から読み出した撮像クラスタの中心位置とを用いて、撮像クラスタから離間距離だけ離れた周囲の位置に移動候補位置を設定する処理を行う(ST6)。すなわち、撮像クラスタの中心位置から離間距離だけ離れた周囲の領域に複数の移動候補位置を設定する。本実施の形態では、移動候補位置を、撮像クラスタの中心位置から、ST5にて設定した離間距離を半径とした円状の位置で、かつ、管理者等により予め定められた飛行高度(例えば3m)の領域に、それぞれ等間隔になるように設定する。 Next, in the route search process, the movement candidate position is set at a peripheral position separated from the imaging cluster by the separation distance using the separation distance set in ST5 and the center position of the imaging cluster read from the cluster information 82. (ST6). That is, a plurality of movement candidate positions are set in the surrounding area separated by the distance from the center position of the imaging cluster. In the present embodiment, the movement candidate position is a circular position whose radius is the separation distance set in ST5 from the center position of the imaging cluster, and the flight altitude (for example, 3 m) predetermined by the administrator or the like. ) Areas are set so that they are evenly spaced.

次に、経路探索処理では、ST6にて設定した移動候補位置の其々を評価し、最も高い評価値となる移動候補位置を移動目標位置として設定する処理を行う(ST7)。この際、まず、自律飛行ロボット1が障害物に接触することを防止するため、ボクセル情報83を参照して占有ボクセル又は近接ボクセルに含まれる位置には移動目標位置を設定しないよう、最低の評価値となるようにする。また、自律飛行ロボット1の自己位置から各移動候補位置までの距離が小さいほど評価値が高くなるようにする。更に、前回設定した移動目標位置から移動候補位置までの距離が小さいほど評価値が高くなるようにする。 Next, in the route search process, each of the movement candidate positions set in ST6 is evaluated, and the movement candidate position having the highest evaluation value is set as the movement target position (ST7). At this time, first, in order to prevent the autonomous flight robot 1 from coming into contact with an obstacle, the lowest evaluation is made so that the movement target position is not set at the position included in the occupied voxel or the proximity voxel with reference to the voxel information 83. Make it a value. Further, the smaller the distance from the self-position of the autonomous flight robot 1 to each movement candidate position, the higher the evaluation value. Further, the smaller the distance from the previously set movement target position to the movement candidate position, the higher the evaluation value.

次に、経路探索処理では、位置推定手段71で推定された自己位置と、ST7にて設定した移動目標位置とを用いて自律飛行ロボット1の移動経路を算出する移動経路生成処理を行う(ST8)。具体的には、移動経路生成処理では、まず、記憶部8からボクセル情報82を読出し、分割した移動可能な空間である自由ボクセル及び近接ボクセルの各ボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとしてグラフ構造を生成する。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められる距離コストが設定されているものとする。このようにボクセル情報82に基づいて全ての移動可能なボクセルについてグラフ構造を生成した後、自律飛行ロボット1が存在しているボクセルのノードから移動目標位置が存在しているボクセルのノードまでの移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施の形態ではA*(エースター)経路探索法を用いて移動経路を探索する。この際、ボクセル情報82として記憶されたボクセルコストと距離コストとを、A*経路探索法における移動コストとして利用する。経路探索手段73で生成された生成された移動経路のデータは、経由点(x,y,z)の集合データであり、この情報は記憶部8に一時的に記憶される。図8は、移動候補位置を設定してから移動経路を生成するまでの概略を模式的に表した図である。同図では、撮像クラスタC1の中心位置O1から、ST5にて設定された離間距離R1だけ離れた位置に、等間隔に複数の移動候補位置Pcが設定されている。そして、これらの移動候補位置Pcの中から、移動目標位置としてPoが設定され、自己位置から当該移動目標位置Poに至る移動経路W0が生成されている。 Next, in the route search process, a movement route generation process for calculating the movement route of the autonomous flight robot 1 is performed using the self-position estimated by the position estimation means 71 and the movement target position set in ST7 (ST8). ). Specifically, in the movement route generation process, first, the voxel information 82 is read from the storage unit 8, and the center of each voxel of the free voxel and the proximity voxel, which are divided movable spaces, is set as a node, and the node is adjacent to the node. A graph structure is generated using a line segment connecting nodes as an edge. At this time, it is assumed that the distance cost obtained based on the distance between adjacent nodes is set as the edge weight. After generating a graph structure for all movable voxels based on the voxel information 82 in this way, the movement from the voxel node in which the autonomous flight robot 1 exists to the voxel node in which the movement target position exists. Generate a route. Various route generation methods can be applied to the movement route generation method, but in the present embodiment, the movement route is searched by using the A * (Aster) route search method. At this time, the voxel cost and the distance cost stored as the voxel information 82 are used as the movement cost in the A * route search method. The data of the movement route generated by the route search means 73 is a set data of waypoints (x, y, z), and this information is temporarily stored in the storage unit 8. FIG. 8 is a diagram schematically showing an outline from setting a movement candidate position to generating a movement route. In the figure, a plurality of movement candidate positions Pc are set at equal intervals at a position separated from the center position O1 of the imaging cluster C1 by the separation distance R1 set in ST5. Then, Po is set as the movement target position from these movement candidate positions Pc, and the movement path W0 from the self position to the movement target position Po is generated.

移動制御手段74は、経路探索手段73にて算出された移動経路と位置推定手段71にて推定された自己位置と速度推定手段72で推定された飛行速度とを用いて、自律飛行ロボット1が経路探索手段73で算出された移動経路に沿って飛行するように経路追従制御を行う。具体的には、移動経路、自己位置及び飛行速度を用いて各時刻での飛行制御値である制御指令値を求め、当該制御指令値に基づいてモータ4を制御し、ロータ2の回転数を制御する。 The movement control means 74 uses the movement route calculated by the route search means 73, the self-position estimated by the position estimation means 71, and the flight speed estimated by the speed estimation means 72, so that the autonomous flight robot 1 can use the movement control means 74. The route tracking control is performed so as to fly along the movement route calculated by the route search means 73. Specifically, the control command value, which is the flight control value at each time, is obtained using the movement path, the self-position, and the flight speed, the motor 4 is controlled based on the control command value, and the rotation speed of the rotor 2 is determined. Control.

経路追従制御では、まず、各時刻での自律飛行ロボット1が目標とすべき直近の位置(以下、「ローカル目標」と呼ぶ)を算出する処理を行う。図9はローカル目標の算出を説明する図である。ローカル目標の算出にあたり、移動制御手段74は、経路探索手段73で生成された移動経路を記憶部8から読出し、自律飛行ロボット1が現在時刻で目指している経由点Wp1と前回通過済みである経由点Wp0との2点間を繋げた直線Wを求める。そして、移動制御手段74は、求めた直線Wと自律飛行ロボット1の自己位置を中心とした球Sとの交点Lp’、Lpを算出し、目指している経由点Wp1に近い交点Lpをローカル目標として求める。このように、各時刻においてローカル目標を目指して自律飛行ロボット1が移動するよう飛行制御することで、常にローカル目標も移動経路上を移動目標位置Poに向かって移動していき、自律飛行ロボット1は移動経路に沿って飛行していくことになる。 In the route tracking control, first, a process of calculating the nearest position (hereinafter, referred to as “local target”) to be targeted by the autonomous flight robot 1 at each time is performed. FIG. 9 is a diagram illustrating the calculation of the local target. In calculating the local target, the movement control means 74 reads the movement route generated by the route search means 73 from the storage unit 8, and the waypoint Wp1 that the autonomous flight robot 1 is aiming at at the current time and the way that has passed last time. The straight line W connecting the two points with the point Wp0 is obtained. Then, the movement control means 74 calculates the intersection points Lp'and Lp between the obtained straight line W and the sphere S centered on the self-position of the autonomous flight robot 1, and sets the intersection point Lp close to the target waypoint Wp1 as a local target. Ask as. In this way, by controlling the flight so that the autonomous flight robot 1 moves toward the local target at each time, the local target always moves on the movement path toward the movement target position Po, and the autonomous flight robot 1 always moves. Will fly along the movement path.

次に、経路追従制御では、算出したローカル目標に向かって飛行するようX、Y、Z、ヨー角の各方向毎に制御指令値ux,uy,uz,uψを算出する処理を行う。この際、現在の自己位置とローカル目標の位置との差異が小さくなるような制御指令値を求める。具体的には、XYZ軸方向の制御指令値u=(ux,uy,uz)は、位置推定手段71で求められた自己位置r=(Xs,Ys,Zs)と速度推定手段72で推定した速度v=(vx,vy,vz)とを利用し、PID制御により求める。XYZ軸方向の各制御指令値をu=(ux,uy,uz)、ローカル目標をr’=(x,y,z)としたとき、制御指令値は、u=Kp(r’−r)+Kd・v+Ki・eの式で算出される。ここで、Kp、Kd、KiはそれぞれPID制御のゲインのことであり、e=(ex,ey,ez)は誤差の積分値である。一方、ヨー角方向の制御指令値uψは、ψ'を目標角度、ψを位置推定手段71にて推定した自律飛行ロボット1の姿勢(角度)、vyawを速度推定手段72で推定した角速度とすると、uψ=Kp(ψ’−ψ)+Kd・vyawの式のようなPD制御により求める。なお、本実施の形態では、目標角度ψ'を撮像クラスタC1の中心位置O1の方向を向く角度とした。 Next, in the route tracking control, the process of calculating the control command values u x , u y , u z , u ψ for each direction of the X, Y, Z, and yaw angles so as to fly toward the calculated local target is performed. Do. At this time, a control command value is obtained so that the difference between the current self position and the local target position becomes small. Speed Specifically, the control command value XYZ axis u = (u x, u y , u z) , the self-position r = obtained by the position estimation means 71 (X s, Y s, Z s) and It is obtained by PID control using the velocity v = (v x , v y , v z ) estimated by the estimation means 72. Each control command value of the XYZ-axis direction u = (u x, u y , u z), the local target r '= (x, y, z) when the control command value is, u = Kp (r' -R) + Kd · v + Ki · e is calculated. Here, Kp, Kd, Ki is that the gain of the PID control, respectively, e = (e x, e y, e z) is the integral value of the error. On the other hand, for the control command value u ψ in the yaw angle direction, ψ'is the target angle, ψ is the attitude (angle) of the autonomous flying robot 1 estimated by the position estimation means 71, and v yaw is the angular velocity estimated by the speed estimation means 72. Then, it is obtained by PD control such as the equation u ψ = Kp (ψ'−ψ) + Kd · v yaw . In the present embodiment, the target angle ψ'is set as an angle facing the direction of the center position O1 of the imaging cluster C1.

このように、制御部7は、上述した位置推定手段71、速度推定手段72、経路探索手段73、移動制御手段74における各処理を逐次繰り返す。これにより、本実施の形態の自律飛行ロボット1は、撮像クラスタC1から離間距離だけ離れた位置に対して移動目標位置Poを逐次設定・更新し、その都度移動経路についても逐次設定・更新していくことによって、撮像クラスタに追従移動することができる。特に本実施の形態における自律飛行ロボット1は、撮像クラスタのクラスタサイズと視野角φとに基づいて撮像部3の撮像範囲内に当該撮像クラスタが含まれる位置を移動目標位置Poに設定している。これにより、複数の移動物体が存在する移動空間において、多くの移動物体Mを同時撮影する位置にて追従移動することができる。 In this way, the control unit 7 sequentially repeats each process of the position estimation means 71, the speed estimation means 72, the route search means 73, and the movement control means 74 described above. As a result, the autonomous flight robot 1 of the present embodiment sequentially sets and updates the movement target position Po with respect to a position separated by the distance from the imaging cluster C1, and sequentially sets and updates the movement route each time. By going, it is possible to follow and move to the imaging cluster. In particular, the autonomous flight robot 1 in the present embodiment sets the position including the imaging cluster within the imaging range of the imaging unit 3 as the moving target position Po based on the cluster size of the imaging cluster and the viewing angle φ. .. As a result, in a moving space where a plurality of moving objects exist, it is possible to follow and move at a position where many moving objects M are simultaneously photographed.

また、本実施の形態における自律飛行ロボット1は、経路探索処理(ST1)にて、撮像条件情報84の視野角φと解像度とに基づいて、移動物体Mを認識可能となるよう、クラスタの上限サイズを算出している。これにより、たとえ移動空間内に複数の移動物体Mが広く分散して位置していたとしても、クラスタリングによって生成されるクラスタのサイズを、移動物体Mを認識可能なサイズに設定することができ、撮像クラスタを構成する複数の移動物体Mを認識可能な解像度により、できる限り多くの移動物体を同時撮影しながら追従移動することができる。 Further, the autonomous flight robot 1 in the present embodiment has an upper limit of the cluster so that the moving object M can be recognized by the path search process (ST1) based on the viewing angle φ and the resolution of the imaging condition information 84. The size is calculated. As a result, even if a plurality of moving objects M are widely dispersed and located in the moving space, the size of the cluster generated by the clustering can be set to a size that the moving objects M can recognize. With a resolution that allows a plurality of moving objects M constituting an imaging cluster to be recognized, it is possible to follow and move while simultaneously photographing as many moving objects as possible.

また、本実施の形態における自律飛行ロボット1は、経路探索処理(ST4)にて、撮像クラスタのクラスタサイズと視野角φと解像度とに応じて撮像クラスタからの離間距離の範囲を示す離間距離範囲を求め、撮像クラスタから当該離間距離範囲以内の離間距離の位置に移動目標位置を設定している。これにより、クラスタサイズが様々であるクラスタの中から選択した撮像クラスタを、撮像部3の撮像範囲内に含めることができる位置であって、撮像クラスタを構成する複数の移動物体Mを認識可能な解像度により、できる限り多くの移動物体を同時撮影できる位置を正確に求めることができる。 Further, the autonomous flight robot 1 in the present embodiment has a separation distance range indicating a range of separation distance from the imaging cluster according to the cluster size, viewing angle φ, and resolution of the imaging cluster in the route search process (ST4). Is obtained, and the moving target position is set at a position within the separation distance range from the imaging cluster. As a result, a plurality of moving objects M constituting the imaging cluster can be recognized at a position where the imaging cluster selected from the clusters having various cluster sizes can be included in the imaging range of the imaging unit 3. Depending on the resolution, it is possible to accurately determine the position where as many moving objects as possible can be photographed at the same time.

ところで、本発明は、上記実施の形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施の形態で実施されてもよいものである。また、実施の形態に記載した効果は、これに限定されるものではない。 By the way, the present invention is not limited to the above-described embodiment, and may be further implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the embodiment is not limited to this.

上記実施の形態における経路探索処理では、ST1にてクラスタの上限サイズを決定し、ST4にて当該クラスタ(撮像クラスタ)が撮像範囲内に含まれる離間距離範囲を求めて、ST5にて当該離間距離範囲内の距離値として離間距離を設定している。しかし、これに限らず、離間距離を予め固定値として管理者等により記憶部8に設定しておき、選択クラスタの位置(例えば中心位置)から当該設定された離間距離だけ離れた位置に移動候補位置を設定してもよい。この場合、経路探索手段73は、経路探索処理(ST1)にて、自己位置から予め設定した離間距離だけ離れた位置にクラスタの中心位置があり、視野角φに基づいて求めた撮像部3の撮像可能範囲内に収まる最大のクラスタサイズを、上限サイズとして求めるものとする。そして、当該上限サイズを用いてクラスタリング(ST2)して求めたクラスタの中から撮像クラスタを選択し(ST3)、当該撮像クラスタから設定された離間距離だけ離れた位置に移動候補位置を設定する(ST6)。このように、離間距離が固定値であったとしても、複数の移動物体が存在する移動空間において、多くの移動物体Mを同時撮影する位置にて追従移動することができる。 In the route search process in the above embodiment, the upper limit size of the cluster is determined in ST1, the separation distance range in which the cluster (imaging cluster) is included in the imaging range is obtained in ST4, and the separation distance is determined in ST5. The separation distance is set as the distance value within the range. However, not limited to this, the separation distance is set in advance as a fixed value in the storage unit 8 by the administrator or the like, and the movement candidate is moved to a position separated by the set separation distance from the position (for example, the center position) of the selected cluster. The position may be set. In this case, the route search means 73 has the center position of the cluster at a position separated from the self position by a preset separation distance in the route search process (ST1), and the imaging unit 3 obtained based on the viewing angle φ. The maximum cluster size that fits within the imageable range shall be calculated as the upper limit size. Then, the imaging cluster is selected from the clusters obtained by clustering (ST2) using the upper limit size (ST3), and the movement candidate position is set at a position separated by the separation distance set from the imaging cluster (ST3). ST6). In this way, even if the separation distance is a fixed value, it is possible to follow and move at a position where many moving objects M are simultaneously photographed in a moving space where a plurality of moving objects exist.

また、上記実施の形態における経路探索処理では、ST3にて撮像クラスタを選択する際、自己位置に最も近いクラスタを撮像クラスタとして選択している。しかし、これに限らず、複数の移動物体Mの中から優先撮像対象となる移動物体Mを選択し、当該優先撮像対象として選択された移動物体Mを含んだクラスタを撮像クラスタとして選択してもよい。例えば、移動物体検出センサ104によって最初に検出した移動物体Mを優先撮像対象として設定し、当該優先撮像対象を含むクラスタを撮像クラスタとして選択する。または、検出した移動物体Mの中から所定の画像特徴を有する移動物体M(例えば、武器等を所持している移動物体Mや、マスクをしている移動物体M)を検出し、当該移動物体Mを優先撮像対象として設定して、当該優先撮像対象を含むクラスタを撮像クラスタとして選択してもよい。 Further, in the route search process in the above embodiment, when the imaging cluster is selected in ST3, the cluster closest to the self-position is selected as the imaging cluster. However, the present invention is not limited to this, and a moving object M to be a priority imaging target is selected from a plurality of moving objects M, and a cluster including the moving object M selected as the priority imaging target is selected as an imaging cluster. Good. For example, the moving object M first detected by the moving object detection sensor 104 is set as the priority imaging target, and the cluster including the priority imaging target is selected as the imaging cluster. Alternatively, a moving object M having a predetermined image feature (for example, a moving object M possessing a weapon or the like or a moving object M wearing a mask) is detected from the detected moving objects M, and the moving object M is concerned. M may be set as the priority imaging target, and the cluster including the priority imaging target may be selected as the imaging cluster.

また、上記実施の形態では、管理装置102に接続された移動物体検出センサ104を用いて移動物体Mを検出している。しかしながら、これに限定されるものではなく、撮像部3で取得した撮像画像を画像解析することにより、移動物体Mの位置を推定する画像解析手段(移動物体位置取得手段)を備えてもよい。例えば、撮像画像の各フレームを画像処理して移動物体Mの画像領域を抽出する処理を行う。この際、既知の技術(特開2006−146551号公報を参照)であるオプティカルフロー法、ブースティング学習(例えば、Haar−like特徴を用いているAdaBoostベース識別器による顔検出手法)による識別器等を用いて移動物体Mの画像領域(人物領域)を抽出する。次に、当該抽出された画像領域の位置に基づいて移動物体Mと自律飛行ロボット1との距離を推定する。具体的には、抽出した移動物体Mの画像領域の頭頂部の(撮像画像における)y座標位置と距離との対応表を予め飛行高度毎に作成しておき、現在の飛行高度及び移動物体Mの頭頂部のy座標位置を当該対応表に照らし合わせて自律飛行ロボット1との距離を推定する。しかし、これに限らず、抽出した移動物体Mの頭部の大きさから距離を算出してもよい。すなわち、頭部の大きさと距離との対応表を予め作成しておき、抽出された移動物体Mの頭部の大きさを当該対応表に照らし合わせて自律飛行ロボット1との距離を推定してもよい。 Further, in the above embodiment, the moving object M is detected by using the moving object detection sensor 104 connected to the management device 102. However, the present invention is not limited to this, and an image analysis means (moving object position acquisition means) for estimating the position of the moving object M by image analysis of the captured image acquired by the imaging unit 3 may be provided. For example, each frame of the captured image is image-processed to extract an image region of the moving object M. At this time, an optical flow method, which is a known technique (see JP-A-2006-146551), a classifier by boosting learning (for example, a face detection method using an AdaBoost-based classifier using the Har-like feature), etc. Is used to extract the image area (person area) of the moving object M. Next, the distance between the moving object M and the autonomous flying robot 1 is estimated based on the position of the extracted image region. Specifically, a correspondence table between the y-coordinate position (in the captured image) of the crown of the image region of the extracted moving object M and the distance is prepared in advance for each flight altitude, and the current flight altitude and the moving object M are created. The distance to the autonomous flight robot 1 is estimated by comparing the y-coordinate position of the top of the head with the correspondence table. However, the distance may be calculated from the size of the head of the extracted moving object M. That is, a correspondence table between the size of the head and the distance is created in advance, and the distance to the autonomous flight robot 1 is estimated by comparing the size of the head of the extracted moving object M with the correspondence table. May be good.

また、自律飛行ロボット1に撮像部3としてカラーカメラの代わりに距離画像センサを搭載して、当該距離画像センサから取得した距離画像を用いて、既知の移動物体抽出技術により移動物体Mを抽出して、抽出した移動物体Mと自律飛行ロボット1との距離値と自己位置とから移動物体Mの位置を推定する画像解析手段(移動物体位置取得手段)を備えてもよい。また、自律飛行ロボット1にレーザスキャナを搭載し、位置推定手段71(移動物体位置取得手段)が、当該レーザスキャナの出力値と自己位置とを用いて移動物体Mの位置を推定してもよい。 Further, the autonomous flight robot 1 is equipped with a distance image sensor as an imaging unit 3 instead of a color camera, and a moving object M is extracted by a known moving object extraction technique using the distance image acquired from the distance image sensor. Alternatively, an image analysis means (moving object position acquisition means) for estimating the position of the moving object M from the distance value between the extracted moving object M and the autonomous flying robot 1 and its own position may be provided. Further, the autonomous flight robot 1 may be equipped with a laser scanner, and the position estimation means 71 (moving object position acquisition means) may estimate the position of the moving object M using the output value of the laser scanner and its own position. ..

また、上記実施の形態では、制御部7において位置推定処理、速度推定処理、移動経路生成処理、経路追従制御の一連の処理を行っている。しかし、これに限らず、図示しない制御用のPCを用意し、当該PCにこれらの一連の処理を実施させてもよい。すなわち、自律飛行ロボット1は、PCによって行われた位置推定処理、速度推定処理、移動経路生成処理、経路追従制御によって得られた制御指令値を無線通信又は有線通信によりPCから受信し、当該制御指令値に基づいてモータ4の回転数を制御することにより、目的の位置に飛行するようにしてもよい。このように、外部PCを用いて上記の一連の処理を分担することにより、自律飛行ロボット1のCPU処理負荷を低減することができ、ひいてはバッテリの消耗も抑えることができる。 Further, in the above embodiment, the control unit 7 performs a series of processes of position estimation processing, speed estimation processing, movement route generation processing, and route tracking control. However, the present invention is not limited to this, and a control PC (not shown) may be prepared and the PC may be allowed to perform a series of these processes. That is, the autonomous flight robot 1 receives the control command value obtained by the position estimation process, the speed estimation process, the movement route generation process, and the route tracking control performed by the PC from the PC by wireless communication or wired communication, and controls the control. By controlling the rotation speed of the motor 4 based on the command value, the robot may fly to a target position. In this way, by sharing the above series of processes using the external PC, the CPU processing load of the autonomous flight robot 1 can be reduced, and eventually the battery consumption can be suppressed.

1・・・自律飛行ロボット
2・・・ロータ
3・・・撮像部
4・・・モータ
5・・・距離検出センサ
6・・・位置検出センサ
7・・・制御部
8・・・記憶部
9・・・通信部
71・・・位置推定手段
72・・・速度推定手段
73・・・経路探索手段
74・・・移動制御手段
81・・・移動物体位置
82・・・クラスタ情報
83・・・ボクセル情報
84・・・撮像条件情報
100・・・警備センタ
102・・・管理装置
104・・・移動物体検出センサ
110・・・情報通信網
M・・・移動物体

1 ... Autonomous flight robot 2 ... Rotor 3 ... Imaging unit 4 ... Motor 5 ... Distance detection sensor 6 ... Position detection sensor 7 ... Control unit 8 ... Storage unit 9・ ・ ・ Communication unit 71 ・ ・ ・ Position estimation means 72 ・ ・ ・ Velocity estimation means 73 ・ ・ ・ Route search means 74 ・ ・ ・ Movement control means 81 ・ ・ ・ Moving object position 82 ・ ・ ・ Cluster information 83 ・ ・ ・Voxel information 84 ・ ・ ・ Imaging condition information 100 ・ ・ ・ Security center 102 ・ ・ ・ Management device 104 ・ ・ ・ Moving object detection sensor 110 ・ ・ ・ Information communication network M ・ ・ ・ Moving object

Claims (5)

移動空間内を自律移動し、撮像部により複数の移動物体の撮像画像を取得する自律移動ロボットであって、
前記撮像部の視野角を記憶した記憶部と、
前記各移動物体の移動物体位置を取得する移動物体位置取得手段と、
前記自律移動ロボットの自己位置を推定する位置推定手段と、
前記移動物体の集合であるクラスタの前記移動物体位置を包含する最小の円のサイズが前記視野角に応じた上限サイズ以下となるようクラスタリングし、所定基準に従って該クラスタの中から撮像対象とする撮像クラスタを選択し、該撮像クラスタのクラスタサイズと前記視野角とに基づいて前記撮像部の撮像範囲内に該撮像クラスタが含まれる移動目標位置を設定し、前記自己位置から当該移動目標位置に至る移動経路を求める経路探索手段と、
前記移動経路に沿って移動するよう制御する移動制御手段と、
を有することを特徴とする自律移動ロボット。
An autonomous mobile robot that autonomously moves in a moving space and acquires images of a plurality of moving objects by an imaging unit.
A storage unit that stores the viewing angle of the imaging unit,
A moving object position acquisition means for acquiring the moving object position of each moving object, and
A position estimating means for estimating the self-position of the autonomous mobile robot, and
Clustering is performed so that the size of the smallest circle including the position of the moving object in the cluster, which is a collection of the moving objects, is equal to or less than the upper limit size according to the viewing angle, and imaging is performed from the cluster according to a predetermined standard. A cluster is selected, a moving target position including the imaging cluster is set within the imaging range of the imaging unit based on the cluster size of the imaging cluster and the viewing angle, and the movement target position is reached from the self-position. A route search means for finding a movement route and
A movement control means that controls movement along the movement path, and
An autonomous mobile robot characterized by having.
前記記憶部は、前記撮像部の解像度を更に記憶し、
前記経路探索手段は、前記視野角及び前記解像度に応じた前記上限サイズを設定する請求項1に記載の自律移動ロボット。
The storage unit further stores the resolution of the imaging unit.
The autonomous mobile robot according to claim 1, wherein the route search means sets the upper limit size according to the viewing angle and the resolution.
前記経路探索手段は、前記撮像クラスタのクラスタサイズ、前記視野角及び前記解像度に応じた前記撮像クラスタからの離間距離範囲を求め、該撮像クラスタから当該離間距離範囲内に前記移動目標位置を設定する請求項2に記載の自律移動ロボット。 The route search means obtains a distance range from the imaging cluster according to the cluster size, the viewing angle, and the resolution of the imaging cluster, and sets the movement target position within the separation distance range from the imaging cluster. The autonomous mobile robot according to claim 2. 前記経路探索手段は、予め定めた離間距離及び前記視野角に応じた撮像可能範囲を前記上限サイズに設定して前記複数の移動物体をクラスタリングする請求項1に記載の自律移動ロボット。 The autonomous mobile robot according to claim 1, wherein the route search means sets a predetermined separation distance and an imageable range according to the viewing angle to the upper limit size to cluster the plurality of moving objects. 前記経路探索手段は、前記複数の移動物体の中から優先撮影対象を選択し、該優先撮影対象に選択された移動物体が含まれる前記クラスタを撮像クラスタとして選択する請求項1〜請求項4のいずれか一項に記載の自律移動ロボット。

The path search means according to claim 1 to 4, wherein a priority imaging target is selected from the plurality of moving objects, and the cluster including the selected moving object as the priority imaging target is selected as an imaging cluster. The autonomous mobile robot according to any one item.

JP2016072710A 2016-03-31 2016-03-31 Autonomous mobile robot Active JP6758068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016072710A JP6758068B2 (en) 2016-03-31 2016-03-31 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072710A JP6758068B2 (en) 2016-03-31 2016-03-31 Autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2017182690A JP2017182690A (en) 2017-10-05
JP6758068B2 true JP6758068B2 (en) 2020-09-23

Family

ID=60007511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072710A Active JP6758068B2 (en) 2016-03-31 2016-03-31 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP6758068B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106327B2 (en) * 2018-03-30 2022-07-26 セコム株式会社 Control device
JP6675537B1 (en) * 2019-03-12 2020-04-01 Terra Drone株式会社 Flight path generation device, flight path generation method and program, and structure inspection method
JP7171938B2 (en) 2019-09-27 2022-11-15 本田技研工業株式会社 Imaging system, control device, control method, program and storage medium
KR102199680B1 (en) * 2020-05-26 2021-01-07 김용철 Method and apparatus for controlling drone for autonomic landing
CN112558637B (en) * 2020-12-11 2022-11-25 西安航光卫星测控技术有限公司 Method for avoiding air moving target by unmanned aerial vehicle in unmanned aerial vehicle cluster

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004873A (en) * 2007-06-19 2009-01-08 Canon Inc Camera control system and method, program and storage medium
JP2009026209A (en) * 2007-07-23 2009-02-05 Toyota Motor Corp Autonomous moving device
JP6140458B2 (en) * 2013-01-24 2017-05-31 セコム株式会社 Autonomous mobile robot

Also Published As

Publication number Publication date
JP2017182690A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6029446B2 (en) Autonomous flying robot
JP6664162B2 (en) Autonomous flying robot
JP6195450B2 (en) Autonomous flying robot
US20220234733A1 (en) Aerial Vehicle Smart Landing
JP6599143B2 (en) Autonomous mobile robot
JP6527726B2 (en) Autonomous mobile robot
JP5990453B2 (en) Autonomous mobile robot
JP6609833B2 (en) Method and system for controlling the flight of an unmanned aerial vehicle
JP6758068B2 (en) Autonomous mobile robot
JP6235213B2 (en) Autonomous flying robot
JP6140458B2 (en) Autonomous mobile robot
TWI784102B (en) Method, processing device and non-transitory processor readable storage medium for operating or use in a robot vehicle
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
WO2018086133A1 (en) Methods and systems for selective sensor fusion
JP6014485B2 (en) Autonomous flying robot
JP6014484B2 (en) Autonomous mobile robot
JP6530212B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
JP2017182692A (en) Autonomous Mobile Robot
JP6758069B2 (en) Autonomous flying robot
JP7351609B2 (en) Route searching device and program
JP6595284B2 (en) Autonomous mobile robot
WO2020088399A1 (en) Information processing device, flight control method, and flight control system
JP6664258B2 (en) Self-location estimation device
Kang Development of a Peripheral-Central Vision System to Detect and Characterize Airborne Threats

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200901

R150 Certificate of patent or registration of utility model

Ref document number: 6758068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250