JP2023045829A - Unmanned mobile body moving method and exploring method - Google Patents
Unmanned mobile body moving method and exploring method Download PDFInfo
- Publication number
- JP2023045829A JP2023045829A JP2021154417A JP2021154417A JP2023045829A JP 2023045829 A JP2023045829 A JP 2023045829A JP 2021154417 A JP2021154417 A JP 2021154417A JP 2021154417 A JP2021154417 A JP 2021154417A JP 2023045829 A JP2023045829 A JP 2023045829A
- Authority
- JP
- Japan
- Prior art keywords
- unmanned
- mobile body
- unmanned mobile
- moving
- flying object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000013507 mapping Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000007613 environmental effect Effects 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 12
- 239000007789 gas Substances 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 14
- 238000007689 inspection Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 239000002341 toxic gas Substances 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 229910000037 hydrogen sulfide Inorganic materials 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 206010021143 Hypoxia Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、無人移動体の移動方法及び探査方法に関するものである。 TECHNICAL FIELD The present invention relates to a moving method and an exploration method for an unmanned mobile body.
従来、このような分野の技術として、下記特許文献1に記載の検査システムが知られている。この検査システムでは、検査機器を搭載した無人飛行船をボイラ火炉の内部空間で飛行させている。そして、無人飛行船がボイラ火炉内部で各検査対象部に移動し、検査機器により、外観画像、熱画像、音響、風速等が取得される。この検査システムでは、GPS技術を用いて無人飛行船の現在位置が認識される。あるいは、ボイラ火炉内の例えば四隅に設置された送信機から無人飛行船が信号を受信しこの信号に基づく三次元位置計測によって無人飛行船の現在位置が認識されることで、無人飛行船の飛行が制御される。
Conventionally, an inspection system described in
しかしながら、この種の無人移動体による探査では、GPS衛星の電波が届かない場所を探査の対象空間とする場合があり、GNSS(Global Navigation Satellite System)が使用できない場合もある。また、この種の探査においては、どのような環境であるかを事前に知ることができない空間を探査の対象とする場合もある。この場合、対象空間の安全性は未確認であるので、人が事前に立ち入ることができず機器等を事前に対象空間に設置することは困難である。そうすると、対象空間内の機器等に頼る無人移動体の移動制御を行うこともできない。 However, in exploration by this type of unmanned mobile body, there are cases where the space to be explored is a place where radio waves from GPS satellites cannot reach, and GNSS (Global Navigation Satellite System) cannot be used in some cases. Moreover, in this type of exploration, there are cases where the exploration target is a space whose environment cannot be known in advance. In this case, since the safety of the target space has not been confirmed, it is difficult for people to enter the target space in advance and to install devices and the like in the target space in advance. As a result, it is not possible to control the movement of an unmanned mobile object that relies on equipment or the like in the target space.
このような課題に鑑み、本発明は、GNSS信号を必要とせず且つ事前に対象空間内に設置する機器類を必要とせずに無人移動体を対象区間で移動可能とする移動方法及び探査方法を提供することを目的とする。 In view of such problems, the present invention provides a movement method and an exploration method that enable an unmanned mobile body to move in a target section without requiring a GNSS signal and without requiring equipment to be installed in the target space in advance. intended to provide
本発明の無人移動体の移動方法は、所定の開始地点から移動方向前方に広がる所定の対象空間を無人移動体に移動させるための無人移動体の移動方法であって、対象空間内の領域の一部ずつのマッピングが行われる第1工程、第2工程、第3工程、…を備え、第k工程(但しk=2,3,…)では、無人移動体が開始地点に設置された状態から、無人移動体が第(k-1)工程で記憶した第(k-1)ウエイポイントに移動しSLAM処理によって第(k-1)ウエイポイントの前方の第k領域のマッピングを行って開始地点に戻り、マッピングされた第k領域内に設定される第kウエイポイントが無人移動体に記憶される。 A moving method of an unmanned mobile body according to the present invention is a moving method of an unmanned mobile body for moving an unmanned mobile body in a predetermined target space that spreads forward in a moving direction from a predetermined starting point. 1st step, 2nd step, 3rd step, . , the unmanned mobile body moves to the (k-1)-th waypoint stored in the (k-1)th step, and performs SLAM processing to map the k-th area ahead of the (k-1)-th waypoint. Returning to the point, the kth waypoint set within the kth mapped region is stored in the unmanned vehicle.
本発明の無人移動体の移動方法では、無人移動体のSLAM処理により検出可能である物理的なターゲットが開始地点の近傍に少なくとも3つ固定されており、第k工程(但しk=1,2,…)では、無人移動体は、開始地点近傍においてSLAM処理で検知した物理的ターゲットの位置に基づいて自機の位置を認識する、こととしてもよい。 In the unmanned mobile body movement method of the present invention, at least three physical targets that can be detected by SLAM processing of the unmanned mobile body are fixed in the vicinity of the starting point. , . . . ), the unmanned mobile object may recognize its position based on the position of the physical target detected by SLAM processing near the starting point.
また、第k工程(但しk=1,2,…)では、開始地点に戻った無人移動体が記憶している第k領域のマッピング情報に基づいて無人移動体の移動シミュレーションが実行され、移動シミュレーションにより無人移動体が開始地点から往復移動可能であると判断されたポイントが第kウエイポイントとして設定される、こととしてもよい。 Further, in the k-th step (where k=1, 2, . The k-th waypoint may be set at a point at which the unmanned mobile body is determined to be able to make a round trip from the start point by simulation.
また、第k工程(但しk=3,4,…)では、無人移動体は、開始地点から第1~第(k-1)ウエイポイントを順に通過する移動経路で開始地点から第(k-1)ウエイポイントまで移動する、こととしてもよい。また、無人移動体は、対象空間内を飛行可能でありSLAM処理用のスキャン装置を備える無人飛行体である、こととしてもよい。また、無人飛行体は、動力源を有する本体と、本体から下方に延びる一対の着地用脚部と、本体の下方で着地用脚部同士の間に架け渡される梁部と、を備え、スキャン装置は梁部に設置されている、こととしてもよい。 Further, in the k-th step (where k=3, 4, . . . ), the unmanned mobile object moves from the starting point to the (k-th) waypoint on a movement route passing through the first to (k-1)th waypoints in order from the starting point. 1) You may move to a waypoint. Also, the unmanned mobile object may be an unmanned flying object capable of flying in the target space and equipped with a scanning device for SLAM processing. Further, the unmanned air vehicle includes a main body having a power source, a pair of landing legs extending downward from the main body, and a beam extending between the landing legs below the main body. The device may be installed on the beam.
本発明の探査方法では、対象空間内の環境情報を取得するセンサ類を備える無人移動体が上記の何れかの無人移動体の移動方法により対象空間内で移動し、無人移動体による対象空間内の移動中にセンサ類で得られる環境情報が収集される。 In the exploration method of the present invention, an unmanned mobile body equipped with sensors for acquiring environmental information in the target space moves in the target space by any of the methods for moving the unmanned mobile body, and the unmanned mobile body moves in the target space. Environmental information obtained by sensors during the movement of the robot is collected.
本発明によれば、GNSS信号を必要とせず且つ事前に対象空間内に設置する機器類を必要とせずに無人移動体を対象区間で移動可能とする移動方法及び探査方法を提供することができる。 According to the present invention, it is possible to provide a movement method and an exploration method that enable an unmanned mobile body to move in a target section without requiring a GNSS signal and without requiring equipment to be installed in the target space in advance. .
以下、図面を参照しながら本発明に係る無人移動体の移動方法及び探査方法の実施形態について詳細に説明する。図1は、本発明に係る移動方法及び探査方法の対象空間の一例を示す鉛直断面図である。本実施形態では、シールドマシーンによって地下に形成されたシールドトンネル101を対象空間の一例として説明する。シールドトンネル101は立坑103の下部から概ね水平方向に延びている。このシールドトンネル101内には、例えば、崩落の可能性がある箇所、水没している箇所、瓦礫が散乱している箇所、有毒ガスが存在する箇所などが存在する可能性があり、シールドトンネル101内の安全性は未確認である。
Hereinafter, embodiments of an unmanned mobile body moving method and an exploration method according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a vertical cross-sectional view showing an example of the object space of the movement method and the exploration method according to the present invention. In this embodiment, a
このシールドトンネル101内の環境を無人で確認するために、図2(a)に示されるように無人飛行体3(無人移動体、無人飛行体)を備える無人探査システム1が使用される。シールドトンネル101は地下空間であるのでGNSS信号を利用する無人飛行体3の飛行制御はできない。また、シールドトンネル101内に人が事前に立ち入ることもできないので、シールドトンネル101内に事前に機器等を設置するといったこともできない。従って、シールドトンネル101内に設置済みの機器等(例えば、無人飛行体3が認識可能な標識や無線通信の中継点等)を利用して無人飛行体3の飛行制御を行うといったこともできない。また、シールドトンネル101が地下空間であることから太陽光は届かず、事前に照明器具等を設置することもできないので、シールドトンネル101内はほぼ真っ暗である。以上のような条件のシールドトンネル101を対象空間として、無人探査システム1は、無人飛行体3の自律的な飛行及び探査を可能にするものである。
In order to unmannedly confirm the environment inside the
図2(a)に示されるように、無人探査システム1は、シールドトンネル101内を飛行する無人飛行体3と、シールドトンネル101の坑口近傍で探査作業者が使用する探査支援端末5と、を備えている。本実施形態では、探査の拠点として立坑103の底部近傍に開始地点P0が設定され、無人飛行体3はこの開始地点P0で離着陸する。開始地点P0には例えば無人飛行体3の離着陸用の台座が設置されてもよい。探査支援端末5は、例えば、開始地点P0近傍で使用されるコンピュータシステムであり、無人飛行体3の総合制御部13(後述)と有線又は無線で接続され情報の授受を行う。探査支援端末5は、例えば、開始地点P0近傍で探査作業者が操作するパーソナルコンピュータと、無人飛行体3の飛行を遠隔操作する遠隔操作コントローラと、を有している。あるいは、上記パーソナルコンピュータに遠隔操作コントローラの機能が組み込まれていてもよい。
As shown in FIG. 2( a ), the
無人飛行体3は、飛行の動力源を有するドローン11と、ドローン11に積載される各種の積載機器と、を備えている。上記の積載機器には、総合制御部13と、スキャン装置15と、光学カメラ17と、ガスセンサ19と、他のセンサ類21と、が含まれている。ドローン11は、例えば、推力を発生する複数のプロペラと、各プロペラを駆動するモータと、モータの電力源であるバッテリーと、を備えている。このようなドローン11としては、市販の公知のドローンが採用されてもよい。
The
総合制御部13は、例えばドローン11に載積可能な比較的小型のコンピュータシステムで構成される。総合制御部13は、ドローン11が備える飛行制御コンピュータ(図示せず)に接続されて信号の授受を行い、当該飛行制御コンピュータを介してドローン11の飛行を制御することができる。また総合制御部13は、スキャン装置15と、光学カメラ17と、ガスセンサ19と、他のセンサ類21と、の動作の制御も行う。総合制御部13は、シールドトンネル101の探査に必要な情報を記憶する情報記憶部13aと、探査支援端末5との通信を有線又は無線で行うための通信部13bと、を有している。
The integrated
総合制御部13は、物理的には、図2(b)に示されるように、CPU211、主記憶装置であるRAM212及びROM213、シリコンドライブ又はハードディスク等の補助記憶装置214、ユーザ操作を受け付けるボタン、スイッチ等の入力装置215、外部に情報を表示するディスプレイ、インジケータランプ等の出力装置216、データ送受信デバイスである通信モジュール217などを含むコンピュータシステムとして構成されている。本実施形態で説明する総合制御部13の各機能は、CPU211、RAM212等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU211の制御のもとで通信モジュール217、入力装置215、出力装置216を動作させるとともに、RAM212や補助記憶装置214におけるデータの読み出し及び書き込みを行うことで実現される。
As shown in FIG. 2B, the integrated
無人飛行体3のスキャン装置15は、3D LiDAR(3D lightdetection and ranging)装置等と呼ばれる装置であり、無人飛行体3の飛行中に周囲に非可視のレーザ光を出射し周囲の物体からのレーザ反射光を受光することで、当該物体上の各点までの距離を測定する。スキャン装置15は、水平面から上下方向に±15°の範囲で水平方向に全周をスキャンし、このスキャン範囲内の物体(例えば、シールドトンネル101の内壁面)上の点について、各点までの距離情報を収集していく。このような各点の集合である点群情報が総合制御部13に送信され情報記憶部13aに記憶され蓄積されていく。
The
総合制御部13ではスキャン装置15からの上記点群情報に基づいて飛行中の無人飛行体3の周囲の物体の三次元位置及び三次元形状が認識される。すなわち、総合制御部13は、周囲の物体の三次元的な配置を認識するとともに、周囲の物体に対する無人飛行体3の相対的な三次元位置を認識することができる。このように、無人飛行体3の周囲の物体のマッピングと無人飛行体3の自己位置特定とを同時に行う処理は、SLAM(Simultaneous Localization and Mapping)処理と呼ばれる。本実施形態におけるスキャン装置15及び総合制御部13は、レーザ光を用いた3D LiDAR装置によってLiDAR-SLAM処理を行う。LiDAR-SLAM処理は公知であるので更なる詳細な説明を省略する。LiDAR-SLAM処理により得られるマッピング情報は、無人飛行体3の周囲の物体上の点群の位置情報であり、総合制御部13の情報記憶部13aに記憶されていく。
Based on the point group information from the
ここで、図3(a)に示されるように、開始地点P0の周囲には、無人飛行体3の自己位置のキャリブレーションを行うための3つの物理的なターゲット31が設置される。ターゲット31は例えば直径10~20cm程度の球形をなしており、図3(b)に示されるように各ターゲット31には高さ位置を調整するための脚部31aが取付けられている。すべてのターゲット31は、開始地点P0に着地した状態における無人飛行体3のスキャン装置15のスキャン範囲内に設置される。各ターゲット31は、例えば立坑103の底面に脚部31aが固定されることで、立坑103内で位置固定される。脚部31aを省略してターゲット31が立坑103の底壁面や側壁等に直接設置されてもよい。スキャン装置15によるターゲット31の検出を容易にするために、ターゲット31の球表面は、スキャン装置15のレーザ光を回帰反射する回帰反射材料からなる。
Here, as shown in FIG. 3A, three
設置された3つのターゲット31は事前に測量されており、各ターゲット31の三次元的な絶対座標は既知である。また、上記の測量による各ターゲット31の絶対座標は、無人飛行体3の総合制御部13の情報記憶部13aに事前に記憶されている。無人飛行体3のスキャン装置15が各ターゲット31をスキャンすることで、総合制御部13は、無人飛行体3に対する3つのターゲット31の相対位置を取得することができる。そして総合制御部13は、上記スキャンで得られた各ターゲット31の上記相対位置と、事前に情報記憶部13aに記憶された各ターゲット31の絶対座標と、の比較に基づいて、無人飛行体3の絶対位置を認識することができる。
The three installed
上記の無人飛行体3の「絶対位置」には、無人飛行体3の絶対的な3次元的な座標と、無人飛行体3の絶対的な3次元的な向き(姿勢)と、が含まれる。なお、このような無人飛行体3の絶対位置の認識精度を向上するために、3つのターゲット31は例えば平面視で開始地点P0を囲む三角形の各頂点に配置されることが好ましく、上記三角形を大きくすることが好ましい。また、スキャン装置15による検出を容易にするために、ターゲット31の高さ位置は、無人飛行体3が開始地点P0に着地した状態において、スキャン装置15とほぼ同じ高さ位置であることが好ましい。また、ターゲット31のサイズが小さすぎるとスキャン装置15による検出が困難になり、ターゲット31のサイズが大きすぎるとスキャン装置15により検知される位置精度が低下する。この観点から、ターゲット31のサイズは前述のように直径10~20cmであることが好ましい。また、ターゲット31の設置個数は3つ以上であればよいが、絶対位置の認識精度の向上のために4つ以上のターゲット31が設置されてもよい。
The "absolute position" of the
更に無人飛行体3は、飛行中においてシールドトンネル101内の環境情報を取得するセンサ類を備えている。図2(a)に示されるように、このようなセンサ類の例として、本実施形態の無人飛行体3は、前述の光学カメラ17とガスセンサ19と他のセンサ類21とを備えている。これらのセンサ類で取得された環境情報は総合制御部13に送出され、総合制御部13は通信部13bを介して当該環境情報を探査支援端末5に送信する。
Further, the
光学カメラ17は例えば360°カメラであり、無人飛行体3の周囲を可視光で動画撮影する。なお、前述の通りシールドトンネル101内は暗所であるので、光学カメラ17の動画撮影を可能にすべく、無人飛行体3は周囲に向けて投光する照明装置(例えば高輝度LEDビデオライト)を備えている。この光学カメラ17により、無人飛行体3の周囲の動画が撮影され、例えば、シールドトンネル101の内周面の外観の情報を取得することができる。光学カメラ17としては、市販の360°カメラ等が採用されてもよい。
The
ガスセンサ19は、無人飛行体3の近傍の空気中に含まれる所定のガス成分(例えば有毒なガス)の濃度を測定するセンサである。ガスセンサ19が濃度測定するガス成分としては、例えば酸素、一酸化炭素、可燃性ガス、硫化水素などがある。他のセンサ類21は、無人飛行体3の近傍の他の環境情報を取得するためのセンサ類である。他のセンサ類21としては、例えば、温度センサ、湿度センサ、粉塵濃度センサ、照度センサ、風速センサ、騒音センサ、振動センサ、などがある。
The
無人飛行体3の物理的な構成は次の通りである。図4に示されるように、ドローン11は上端部に配置された4枚のプロペラ11aを備えている。更に無人飛行体3は、機体の左右対称の位置でドローン11から下方に延びる一対の着地用脚部23を備えている。なお、着地用脚部23は市販のドローン11の一部として備えられていてもよい。これらの着地用脚部23同士の間に架け渡されるように、機体の左右方向に延びる梁部27が設けられている。この梁部27の中央上面に直方体形状の総合制御部13が固定され、更に総合制御部13の上面に同等の大きさの円柱形状のスキャン装置15が取付けられている。すなわち、総合制御部13及びスキャン装置15がドローン11の下方の中央部で上下に重ねて配置される。このように、主な重量物である総合制御部13及びスキャン装置15がドローン11の下方の中央部に配置されることで、無人飛行体3の安定した飛行が可能になる。また、比較的小型軽量である光学カメラ17、照明装置、ガスセンサ19、及び他のセンサ類21については、図示を省略しているが、重量のバランスを考慮してそれぞれドローン11の上面又は下面や着地用脚部23等に適宜取付ければよい。
The physical configuration of the
続いて、上述のような無人探査システム1を用いたシールドトンネル101内の探査方法について、図1、図5、及び図6を参照しながら説明する。図5及び図6は、当該探査方法によるシールドトンネル101内の探査作業のフローチャートである。以下の説明における無人飛行体3等の動作は、総合制御部13及び探査支援端末5が所定の飛行制御プログラムを実行することにより実現される。この探査作業において、シールドトンネル101内での無人飛行体3の移動方法は、下に説明するような第1工程、第2工程、…、第m工程(m=2,3,…)が順に実行されることにより移動可能な領域A1,A2,…,Amを移動方向前方に向かって(すなわちシールドトンネル101の切羽側に向かって)徐々に追加していくといったものである。以下では、シールドトンネル101の切羽側を「移動方向前方」又は単に「前方」と言う場合があり、シールドトンネル101の坑口側を「移動方向後方」又は単に「後方」と言う場合がある。上記のmの値は、例えば無人飛行体3の航続距離等の条件を考慮して適切に決定される。
Next, a method for searching inside the
詳細は後述するが、
第1工程では、開始地点P0の前方の領域A1のマッピング情報が取得され当該領域A1内にウエイポイントP1が設定され、
第2工程では、領域A1の更に前方の領域A2のマッピング情報が取得され当該領域A2内にウエイポイントP2が設定され、
第3工程では、領域A2の更に前方の領域A3のマッピング情報が取得され当該領域A3内にウエイポイントP3が設定され、
…、
第m工程では、領域A(m-1)の更に前方の領域Amのマッピング情報が取得され当該領域Am内にウエイポイントPmが設定される。
Details will be described later, but
In the first step, the mapping information of the area A1 in front of the starting point P0 is acquired and the waypoint P1 is set in the area A1,
In the second step, the mapping information of the area A2 further ahead of the area A1 is obtained, and the waypoint P2 is set in the area A2,
In the third step, the mapping information of the area A3 further ahead of the area A2 is acquired, and the waypoint P3 is set in the area A3,
…,
In the m-th step, the mapping information of the area Am further ahead of the area A(m−1) is acquired, and the waypoint Pm is set within the area Am.
領域A1~Amは何れもシールドトンネル101内の一部の領域であり、ウエイポイントP1~Pmは、無人飛行体3の飛行通過点として領域A1~Am内にそれぞれ設定され総合制御部13で認識される仮想的な点である。ウエイポイントP1~Pmは、探査作業者が手動で選択し、それぞれ、領域A1~Amのうち最前部に近い位置に設定される。なお、ウエイポイントP1~Pmは無人飛行体3の飛行通過点であり無人飛行体3の着地点ではないので、着地に適したポイントが選択される必要はない。
The areas A1 to Am are all part of the area within the
以下、第1工程、第2工程、…、第m工程の詳細について説明する。ここでは、第1工程、第2工程、…、第m工程の1つの工程を「第k工程」(k=1~m)と一般化し、k=1の場合(第1工程)と、k=2~mの場合と、に分けて説明する。 Details of the first step, the second step, . . . , the m-th step will be described below. Here, one step of the first step, the second step, . =2 to m will be described separately.
〔第1工程(k=1の場合)〕
図5に示されるように、第1工程では、まず無人飛行体3が開始地点P0に設置される(図5のステップS302)。このとき無人飛行体3の総合制御部13は、スキャン装置15を用いたLiDAR-SLAM処理によって周囲の3つのターゲット31を検出し無人飛行体3の正確な絶対位置を認識する(ステップS304:キャリブレーション)。その後、総合制御部13はドローン11を始動し、無人飛行体3を開始地点P0において例えば鉛直に上昇させ再び下降させて開始地点P0に再着地させる(ステップS306)。ここでは、シールドトンネル101の坑口の天井よりも高い位置に無人飛行体3が達するように例えば5m程度上昇する。なお、上記のキャリブレーション(ステップS304)は、この上昇/下降(ステップS306)の間に実行されてもよい。上記の上昇/下降(ステップS306)の間、スキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13は、LiDAR-SLAM処理により、開始地点P0の周囲のマッピングを行う。そして、無人飛行体3が開始地点P0に再着地した時点では、開始地点P0の周囲のマッピング情報が情報記憶部13aに記憶されている(ステップS308)。
[First step (when k = 1)]
As shown in FIG. 5, in the first step, the
上記のLiDAR-SLAM処理では、シールドトンネル101の坑口を通じてシールドトンネル101の奥側までスキャン装置15のレーザ光が届くので、シールドトンネル101の坑口よりも前方の領域までのマッピング情報が得られる。なお、一般的な3D LiDAR装置により物体検出が可能な距離は100m程度と言われている。従って、ここでは、最大でシールドトンネル101の坑口から例えば約80m前方(開始地点P0から約100m前方)の位置までのマッピング情報が得られると考えられる。このようにして、第1工程では、最大でシールドトンネル101の坑口から例えば約80m前方の位置までの領域である「領域A1」のマッピング情報が得られ情報記憶部13aに記憶される。
In the LiDAR-SLAM process described above, the laser light from the
なお、このマッピング情報はスキャン装置15によって無人飛行体3との相対位置を示す情報として取得される。しかしながら、総合制御部13は前述のターゲット31を利用したキャリブレーション(ステップS304)により無人飛行体3の絶対位置を認識しているので、総合制御部13は取得された上記マッピング情報を、絶対位置で示されるマッピング情報に変換して情報記憶部13aに記憶する。同様にして、これ以降スキャン装置15で取得されるマッピング情報、ウエイポイントP1~Pmの位置情報、飛行ルート情報、無人飛行体3の現在位置情報、及びその他の位置情報はすべて、絶対位置で示される情報として総合制御部13で認識される。
Note that this mapping information is acquired by the
無人飛行体3が開始地点P0に再着地し停止した後、探査作業者は、探査支援端末5を有線又は無線で無人飛行体3の総合制御部13に接続し、情報記憶部13aに記憶された領域A1のマッピング情報を探査支援端末5に読み出す(ステップS310)。また、探査支援端末5に読み出された領域A1のマッピング情報は当該探査支援端末5に記憶された後、情報記憶部13aからは消去されることで情報記憶部13aの記憶容量の節約が図られる。
After the
探査支援端末5では、所定の飛行計画プログラムが実行され、読み出された領域A1のマッピング情報が、領域A1内に存在する物体(例えば、シールドトンネル101の内壁面)上の点群を示す視覚的な画像として表示される。この画像を参照しながら、探査作業者は、領域A1内の最前方近傍の任意のポイントを選択しウエイポイントP1として仮に設定する操作を行う(ステップS312)。
In the
続いて、探査作業者は、上記飛行計画プログラムに含まれるフライトシミュレータ機能を実行し、当該探査支援端末5に記憶された領域A1のマッピング情報及びウエイポイントP1の位置情報に基づいて、探査支援端末5上でフライトシミュレーションを実行する(ステップS314)。このフライトシミュレーションでは、領域A1のマッピング情報に基づいて無人飛行体3が開始地点P0からウエイポイントP1まで安全に往復飛行し帰還できることが確認される。なお、シミュレーションにおいて無人飛行体3の安全な往復飛行が不可能である場合には、必要に応じてウエイポイントP1の変更や飛行ルートの再設定等の調整も行いながらシミュレーションが繰り返される。そして最終的に、開始地点P0からの安全な往復飛行が可能なウエイポイントP1及び開始地点P0からウエイポイントP1までの飛行ルートF1が確定される。確定されたウエイポイントP1の位置情報及び飛行ルートF1の情報は、探査支援端末5に記憶されるとともに、無人飛行体3の総合制御部13にも送信され情報記憶部13aに記憶される。以上で第1工程が完了する。
Subsequently, the exploration operator executes the flight simulator function included in the flight plan program, and based on the mapping information of the area A1 and the positional information of the waypoint P1 stored in the
〔第k工程(k=2~mの場合)〕
上記の第1工程に続いて、第2工程、第3工程、…、第m工程が順に実行される。これらの第2~第m工程については、ほぼ同一の工程が繰返される(図6のステップS401、S418及びS420を参照)。以下の説明において、上記の第1工程と同一及び同等の処理については重複する詳細な説明を適宜省略する。
[Step k (when k = 2 to m)]
Following the first step, the second step, the third step, . . . , the mth step are executed in order. Almost the same steps are repeated for these second to m-th steps (see steps S401, S418 and S420 in FIG. 6). In the following description, overlapping detailed descriptions of the same or equivalent processes as in the first step will be omitted as appropriate.
第k工程の開始時には既に、
第1工程によって領域A1内のウエイポイントP1及び飛行ルートF1が設定済であり、
第2工程によって領域A2内のウエイポイントP2及び飛行ルートF2が設定済であり、
第3工程によって領域A3内のウエイポイントP3及び飛行ルートF3が設定済であり、
…、
第(k-1)工程によって領域A(k-1)内のウエイポイントP(k-1)及び飛行ルートF(k-1)が設定済である。
そして、ウエイポイントP1~P(k-1)の各位置情報及び飛行ルートF1~F(k-1)情報が探査支援端末5及び総合制御部13の情報記憶部13aに記憶されている。また、探査支援端末5には領域A1~A(k-1)のマッピング情報が更に記憶されている。なお、これらのウエイポイントP1~P(k-1)の位置情報、ウエイポイントP1~P(k-1)、及び領域A1~A(k-1)のマッピング情報は、前述の通り、絶対位置を示す情報として記憶されている。
Already at the beginning of the kth step,
A waypoint P1 and a flight route F1 within the area A1 have been set by the first step,
A waypoint P2 and a flight route F2 within the area A2 have been set by the second step,
A waypoint P3 and a flight route F3 within the area A3 have been set by the third step,
…,
A waypoint P(k-1) and a flight route F(k-1) within the area A(k-1) have been set by the (k-1) step.
The positional information of the waypoints P1 to P(k-1) and the information on the flight routes F1 to F(k-1) are stored in the
第k工程では、無人飛行体3が開始地点P0に設置され、総合制御部13の制御下で開始地点P0から飛行ルートF1~F(k-1)に沿ってウエイポイントP(k-1)まで往復飛行する。この往復飛行は無人飛行体3により自律的に行われ、開始地点P0近傍にいる探査作業者は、非常時を除いて、飛行中に無人飛行体3に対する操作を行う必要はない。この往復飛行の手順は次の通りである。
In the k-th step, the
図6に示されるように、まず開始地点P0に無人飛行体3が設置された状態から(図6のステップS402)、総合制御部13はドローン11を始動し無人飛行体3を離陸させる。この離陸前又は離陸直後には、無人飛行体3の総合制御部13は、LiDAR-SLAM処理により3つのターゲット31(図3)を検出し無人飛行体3の絶対位置を認識する(ステップS404:キャリブレーション)。その後、無人飛行体3は総合制御部13の制御下で飛行し、情報記憶部13aに記憶されたウエイポイントP1~P(k-1)の位置情報及び飛行ルートF1~F(k-1)情報に基づいて、ウエイポイントP(k-1)まで自律的に飛行する(ステップS406)。ここで、k=3~mの場合には、無人飛行体3は、ウエイポイントP1~P(k-1)を順に通過しながらウエイポイントP(k-1)に到達する。
As shown in FIG. 6, from the state where the
この飛行中には、スキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13は、LiDAR-SLAM処理により、無人飛行体3の周囲のマッピングを行っている。総合制御部13の飛行制御に必要な無人飛行体3の現在位置情報は、LiDAR-SLAM処理と、ドローン11に備わったIMU(Inertial Measurement Unit、慣性計測装置)による推定処理と、を組み合わせた自己位置推定処理によってリアルタイムに認識される。
During this flight, the
また、飛行中には無人飛行体3の光学カメラ17による周囲の動画の撮影、ガスセンサ19によるガス成分の濃度計測、及び他のセンサ類21による他の環境情報の収集が継続的に実行される。そして、総合制御部13は、収集されたこれらの環境情報を無人飛行体3の現在位置情報に関連づけ、通信部13bを介してリアルタイムで探査支援端末5に継続的に送信する(ステップS407)。探査作業者は、探査支援端末5で受信されたこれらの各環境情報を分析することによりシールドトンネル101内の環境を知ることができる。例えば、光学カメラ17で撮影されたシールドトンネル101の内壁面の動画に基づいて、シールドトンネル101のセグメントの健全性を知ることができる。また例えば、ガスセンサ19で測定されたガス成分の濃度情報から、シールドトンネル101内における有毒ガスの有無等を知ることができる。
In addition, during flight, the
なお、上記のような光学カメラ17による周囲の動画の撮影、ガスセンサ19によるガス成分の濃度計測、及び他のセンサ類21による他の環境情報の収集(ステップS407)は、最終工程である第m工程のみで行われるようにしてもよい。このようにすれば、第1~第(m-1)工程においては、無人飛行体3に光学カメラ17、ガスセンサ19、及び他のセンサ類21を積載する必要がなく、無人飛行体3を軽量化して航続距離を伸ばすことができる。
It should be noted that the photographing of the moving image of the surroundings by the
無人飛行体3の飛行中には、前述の通りスキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13はLiDAR-SLAM処理により周囲のマッピングを行っている。そして、無人飛行体3がウエイポイントP(k-1)に到達した時点で、当該ウエイポイントP(k-1)の周囲のマッピング情報が情報記憶部13aに記憶される。すなわちこの時点で、ウエイポイントP(k-1)よりも前方の領域である「領域Ak」のマッピング情報が情報記憶部13aに記憶される(ステップS408)。例えば、ウエイポイントP(k-1)よりも更に前方の約100mの領域が領域Akとなる。但し、例えばシールドトンネル101の屈曲部等においてスキャン装置15のレーザ光がウエイポイントP(k-1)の前方に十分に届かない場合には、領域Akは上記よりも狭くなる。
During the flight of the
その後無人飛行体3は、総合制御部13の制御下で、情報記憶部13aに記憶されたウエイポイントP1~P(k-1)の位置情報及び飛行ルートF1~F(k-1)情報に基づいて、往路を逆順に辿る飛行ルートで、開始地点P0まで自律的に飛行し帰還する(ステップS409)。
After that, under the control of the
なお、無人飛行体3の飛行中においては、安全飛行のために、次のような措置を実行するための処理プログラムも並行して実行されている。例えば、LiDAR-SLAM処理により無人飛行体3の移動方向前方に障害物が検出された場合には、当該障害物を自動的に回避して飛行する。この処理によれば、第(k-1)工程までには存在しなかった障害物が後発的に発生した場合にも対処可能である。あるいは、この障害物が回避不可能であり所定時間排除されない場合には、無人飛行体3は自動的に開始地点P0に帰還する。また、ドローン11のバッテリー切れが予想される場合(例えば、バッテリーの残容量が所定値未満になった場合)には、無人飛行体3は自動的に開始地点P0に帰還する、あるいは、その場で着陸する。
During the flight of the
また、無人飛行体3の周囲に粉塵、霧又は煙等が発生した場合には、LiDAR-SLAM処理の障害になる可能性があるので、この粉塵等が収束するまで無人飛行体3はホバリングを行う。あるいは、この粉塵等が所定時間収束しない場合には、無人飛行体3は自動的に開始地点P0に帰還する。また、非常時には、開始地点P0にいる探査作業者が、探査支援端末5の遠隔操作コントローラを操作し無人飛行体3を手動で遠隔操作することが可能である。
In addition, if dust, fog, or smoke is generated around the
ウエイポイントP(k-1)から帰還した無人飛行体3が開始地点P0に着地し停止した後、探査作業者は、探査支援端末5を有線又は無線で通信部13bを介して無人飛行体3の総合制御部13に接続し、情報記憶部13aに記憶された領域Akのマッピング情報を探査支援端末5に読み出す(ステップS410)。そして、探査作業者は、第1工程と同様に、探査支援端末5上で飛行計画プログラムを実行し領域Ak内にウエイポイントPkを仮に設定する(ステップS412)。
After the
続いて探査作業者は、第1工程と同様に探査支援端末5上でフライトシミュレーションを実行する(ステップS414)。このフライトシミュレーションにより、必要に応じてウエイポイントPkの調整、及びウエイポイントP(k-1)からウエイポイントPkまでの飛行ルートFkの調整が行われ、開始地点P0からの安全な往復飛行が可能なウエイポイントPk及び飛行ルートFkが確定される。確定されたウエイポイントPkの位置情報及び飛行ルートFkの情報は、探査支援端末5に記憶されるとともに、無人飛行体3の総合制御部13に送信され情報記憶部13aに記憶される(ステップS416)。以上で第k工程が完了する。
Subsequently, the exploration operator executes a flight simulation on the
第k工程が完了した後、この第k工程が最終工程の第m工程であれば(ステップS418)シールドトンネル101内の探査作業を終了し、未だ第m工程に達していない場合にはkの値をカウントアップして(ステップS420)、処理をステップS402に戻す。なお、最終工程の第m工程においては、次回のウエイポイントPmの設定や飛行ルートFmの設定を行うためのステップS410~S416の処理が省略されてもよい。また、最終工程の第m工程においては、無人飛行体3がウエイポイントP(m-1)に到達した際に情報記憶部13aが領域Amのマッピング情報を記憶する処理(ステップS408の一部)を省略してもよい。
After the k-th process is completed, if the k-th process is the m-th process of the final process (step S418), the exploration work inside the
続いて、以上説明したような無人探査システム1によるシールドトンネル101の探査方法による作用効果について説明する。
Next, the effects of the
上記探査方法によれば、無人飛行体3が移動可能な領域A1,A2,…,Amを移動方向前方に向かって例えば30~80m程度ずつ徐々に追加していき、無人飛行体3による探査領域を徐々にシールドトンネル101の切羽側に向かって拡げていくことができる。このとき、第k工程での無人飛行体3は、第(k-1)工程までに設定された飛行ルートF1~F(k-1)に基づいて、ウエイポイントP(k-1)まで飛行する。特に、k=3~mの場合には、無人飛行体3は、第(k-1)工程までに設定されたウエイポイントP1~P(k-1)を順に通過するように飛行してウエイポイントP(k-1)に到達する。ここで、上記のウエイポイントP1~P(k-1)及び飛行ルートF1~F(k-1)は、第(k-1)工程までのフライトシミュレーションにより無人飛行体3が安全に往復飛行可能であることが確認されたものであるので、無人飛行体3は開始地点P0からウエイポイントP(k-1)まで安全に往復飛行することができる。
According to the above exploration method, areas A1, A2, . can be gradually expanded toward the face side of the
また、総合制御部13の飛行制御に必要な無人飛行体3の現在位置情報は、LiDAR-SLAM処理と、ドローン11に備わったIMUによる推定処理と、を組み合わせた自己位置推定処理によってリアルタイムで認識される。従って、無人飛行体3の飛行制御のためにGNSS信号は不要であり、また、シールドトンネル101内に無人飛行体3が読み取り可能な標識や、無人飛行体3との通信を行う機器等を事前に設置しておくこと等も不要であり、無人飛行体3の自律的な飛行が可能である。
In addition, the current position information of the
従って、上記探査方法によれば、例えばシールドトンネル101のようにGNSS信号が使用できず且つ事前に人が立ち入ることができない空間を対象とする探査が好適に実行可能である。また、無人飛行体3のスキャン装置15は、レーザ光を用いるLiDAR装置であるので、上記探査方法によれば、例えばシールドトンネル101のような暗所での探査が好適に実行可能である。
Therefore, according to the exploration method described above, it is possible to suitably execute exploration targeting a space such as the
また、開始地点P0近傍に絶対座標が既知である少なくとも3つのターゲット31が設置されており、無人飛行体3の総合制御部13は、各工程(第1~第m工程)の最初に無人飛行体3の絶対位置のキャリブレーションを行うことができる。従って、無人探査システム1では、各工程(第1~第m工程)におけるウエイポイントP1~Pmの位置情報、領域A1~Amのマッピング情報、飛行ルートF1~Fmの情報、無人飛行体3の現在位置情報等を、一貫して絶対位置情報として認識することができる。
At least three
仮に、上記のような各種の位置情報が絶対位置情報ではなく無人飛行体3との相対位置情報として認識されている場合には、各工程(第1~第m工程)の開始時に、無人飛行体3を同じ位置及び同じ姿勢で正確に開始地点P0に設置する必要がある。すなわちこの場合、各工程の開始時の無人飛行体3の設置位置及び設置姿勢を基準とした相対位置としてウエイポイントP1~Pmの位置等が認識されるので、開始地点P0における無人飛行体3の設置位置及び設置姿勢に誤差があれば、誤差に応じてその後の飛行ルートがズレてしまう。特に無人飛行体3の設置姿勢の誤差は、飛行ルートが長いほど大きなズレの原因になり得る。これに対して、本実施形態の探査方法によれば、ウエイポイントP1~Pmの位置等が無人飛行体3の位置及び姿勢とは無関係に絶対位置情報として認識されるので、無人飛行体3を各工程(第1~第m工程)の開始時に高い位置精度で設置するといったことは不要であり、その結果、作業負荷が低減される。
If the various positional information as described above is recognized not as absolute positional information but as relative positional information with respect to the
本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。また、上述した実施形態に記載されている技術的事項を利用して、実施例の変形例を構成することも可能である。各実施形態等の構成を適宜組み合わせて使用してもよい。 The present invention can be embodied in various forms with various modifications and improvements based on the knowledge of those skilled in the art, including the embodiment described above. Moreover, it is also possible to configure modifications of the embodiments by using the technical matters described in the above-described embodiments. You may use it, combining the structure of each embodiment etc. suitably.
例えば、第k工程(但しk=3~n)で無人飛行体3がウエイポイントP1~P(k-1)を順に通過して飛行することは必須ではない。例えば、開始地点P0からウエイポイントP1~P(k-2)を必ずしも通過せずにウエイポイントP(k-1)まで到達する飛行ルートで無人飛行体3が飛行してもよい。この場合、上記のような飛行ルートが第(k-1)工程で設定され総合制御部13に記憶されてもよい。
For example, it is not essential for the
また、実施形態では、無人飛行体3が開始地点P0に帰還した後、総合制御部13から探査支援端末5にマッピング情報が読み出され、探査支援端末5上でウエイポイント設定、飛行ルート設定、フライトシミュレーションが行われている。しかしながら、この手順は必須ではなく、例えば、探査作業者が、総合制御部13に操作入力装置(例えばキーボード)や表示装置(例えばディスプレイモニタ)等の必要な機器を接続するなどして、ウエイポイント設定、飛行ルート設定、及びフライトシミュレーションを行うための飛行計画プログラムが総合制御部13上で直接実行されてもよい。
Further, in the embodiment, after the
また、実施形態の総合制御部13は、無人飛行体3のSLAM処理として、3D LiDAR装置(スキャン装置15)を利用したLiDAR-SLAM処理を行っているが、これに代えて、例えば光学カメラ17の映像を利用したVisual-SLAM処理を行うものであってもよい。また、スキャン装置15のスキャンは水平面から上下方向に±15°のスキャン範囲で行われるが、このスキャン範囲全体を水平面に対して傾斜させてもよい。例えば、傾斜したトンネルを飛行する際にトンネルの傾斜に対応させてスキャン範囲の傾斜を調整すれば、ドローン11を傾斜姿勢で飛行させる手法よりも容易に、トンネルの内壁面の検出感度を高めることができる。
Further, the
また、本実施形態におけるドローン11はモータ駆動であるが、これに代えて、ガソリンエンジンのドローンやハイブリッドエンジンのドローンが採用されてもよい。但し、モータ駆動のドローン11によれば、ガソリンエンジンやハイブリッドエンジンに比較して振動が低減される点で好ましい。また、無人飛行体3の例えば着地用脚部23の下端に浮体を設けることで、無人飛行体3を水面上に着水可能としてもよい。
Further, the
また、本発明の探査方法及び移動方法においては、対象空間を飛行する無人飛行体3に代えて、地上を移動する無人移動体が用いられてもよい。例えば無人移動体としては、ドローン11に代えて履帯式の走行装置や四足歩行ロボットに前述の各種積載機器(総合制御部13、スキャン装置15等)を積載したものであってもよい。但し、無人飛行体3は、履帯式走行装置や四足歩行ロボットに比較して、対象空間の底面の状態に関わらず移動可能である点で好ましい。
Further, in the exploration method and the movement method of the present invention, an unmanned mobile body that moves on the ground may be used instead of the
また、本発明の探査方法及び移動方法は、シールドトンネル101の環境情報収集のみならず種々の用途に適用することができる。例えば、本発明の探査方法及び移動方法は、山岳トンネルや地下トンネルの自動点検や危険箇所(有毒ガスや崩落危険箇所が存在する箇所)の探索調査、共同構等の点検、硫化水素の存在の可能性や酸欠の可能性がある船のバラストタンク内の点検、建設現場建屋や地下構造物の巡回点検、GNSS信号が受信困難な山間部の樹林帯、事故・災害調査、トンネル切羽の3次元形状の測定、などにも適用することができる。
Further, the exploration method and movement method of the present invention can be applied not only to collecting environmental information of the
3…無人飛行体(無人移動体)、15…スキャン装置、17…光学カメラ(センサ類)、19…ガスセンサ(センサ類)、21…他のセンサ類、23…着地用脚部、27…梁部、31…ターゲット、Ak,A1~Am…領域、P0…開始地点、Pk,P1~Pm…ウエイポイント、Fk,F1~Fm…飛行ルート、101…シールドトンネル(対象空間)。 3... unmanned flying object (unmanned moving object), 15... scanning device, 17... optical camera (sensors), 19... gas sensor (sensors), 21... other sensors, 23... landing leg, 27... beam Part, 31... Target, Ak, A1 to Am... Area, P0... Starting point, Pk, P1 to Pm... Waypoint, Fk, F1 to Fm... Flight route, 101... Shield tunnel (target space).
Claims (7)
前記対象空間内の領域の一部ずつのマッピングが行われる第1工程、第2工程、第3工程、…を備え、
第k工程(但しk=2,3,…)では、
前記無人移動体が前記開始地点に設置された状態から、前記無人移動体が第(k-1)工程で記憶した第(k-1)ウエイポイントに移動しSLAM処理によって前記第(k-1)ウエイポイントの前方の第k領域のマッピングを行って前記開始地点に戻り、マッピングされた前記第k領域内に設定される第kウエイポイントが前記無人移動体に記憶される、無人移動体の移動方法。 A method for moving an unmanned mobile body for moving the unmanned mobile body in a predetermined target space extending forward in a moving direction from a predetermined starting point, comprising:
A first step, a second step, a third step, .
In the k-th step (where k = 2, 3, ...),
From the state in which the unmanned mobile body is installed at the start point, the unmanned mobile body moves to the (k-1)th waypoint stored in the (k-1)th step, and the SLAM process performs the (k-1th) waypoint. ) of an unmanned mobile body, wherein a k-th area ahead of a waypoint is mapped to return to the starting point, and the k-th waypoint set in the mapped k-th area is stored in the unmanned mobile body; Moving method.
前記第k工程(但しk=1,2,…)では、
前記無人移動体は、前記開始地点近傍において前記SLAM処理で検知した前記物理的ターゲットの位置に基づいて自機の位置を認識する、請求項1に記載の無人移動体の移動方法。 At least three physical targets detectable by the SLAM processing of the unmanned mobile body are fixed near the starting point;
In the k-th step (where k = 1, 2, ...),
2. The method of moving an unmanned mobile body according to claim 1, wherein said unmanned mobile body recognizes its own position based on the position of said physical target detected by said SLAM processing in the vicinity of said start point.
前記開始地点に戻った前記無人移動体が記憶している第k領域のマッピング情報に基づいて前記無人移動体の移動シミュレーションが実行され、前記移動シミュレーションにより前記無人移動体が前記開始地点から往復移動可能であると判断されたポイントが前記第kウエイポイントとして設定される、請求項1又は2に記載の無人移動体の移動方法。 In the k-th step (where k = 1, 2, ...),
A movement simulation of the unmanned mobile body is executed based on the mapping information of the k-th area stored by the unmanned mobile body that has returned to the start point, and the unmanned mobile body moves back and forth from the start point by the movement simulation. 3. The method of moving an unmanned vehicle according to claim 1, wherein the point determined to be possible is set as said k-th way point.
前記無人移動体は、前記開始地点から前記第1~第(k-1)ウエイポイントを順に通過する移動経路で前記開始地点から前記第(k-1)ウエイポイントまで移動する、請求項1~3の何れか1項に記載の無人移動体の移動方法。 In the k-th step (where k = 3, 4, ...),
1. The unmanned mobile body moves from the starting point to the (k-1)th waypoint on a movement route passing through the first to (k-1)th waypoints from the starting point in order. 4. The method for moving an unmanned vehicle according to any one of 3.
前記無人移動体による前記対象空間内の移動中に前記センサ類で得られる前記環境情報が収集される、探査方法。 The unmanned mobile body equipped with sensors for acquiring environmental information in the target space moves in the target space by the unmanned mobile body moving method according to any one of claims 1 to 6,
An exploration method, wherein the environment information obtained by the sensors is collected while the unmanned mobile body is moving in the target space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021154417A JP7554726B2 (en) | 2021-09-22 | 2021-09-22 | Method for moving and searching for unmanned vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021154417A JP7554726B2 (en) | 2021-09-22 | 2021-09-22 | Method for moving and searching for unmanned vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023045829A true JP2023045829A (en) | 2023-04-03 |
JP7554726B2 JP7554726B2 (en) | 2024-09-20 |
Family
ID=85777081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021154417A Active JP7554726B2 (en) | 2021-09-22 | 2021-09-22 | Method for moving and searching for unmanned vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7554726B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10274325B2 (en) | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
-
2021
- 2021-09-22 JP JP2021154417A patent/JP7554726B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7554726B2 (en) | 2024-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12007761B2 (en) | Unmanned aerial vehicle inspection system | |
US11794890B2 (en) | Unmanned aerial vehicle inspection system | |
US9513635B1 (en) | Unmanned aerial vehicle inspection system | |
US20210247764A1 (en) | Multi-sensor environmental mapping | |
CN102417037B (en) | automatic takeoff and landing system | |
CN202600150U (en) | Intelligent low-altitude remote sensing surveying and mapping system | |
EP3855270A1 (en) | Flight path determination | |
US10613429B1 (en) | Unmanned aerial vehicle with attached apparatus for X-ray analysis of power lines | |
KR100556103B1 (en) | Method for aerial photogrammetry using computer controlled navigation and photographing system | |
EP1193168A2 (en) | Unmanned mobile device | |
US20200378927A1 (en) | Inspection system, mobile robot device, and inspection method | |
JP2019031164A (en) | Taking-off/landing device, control method of taking-off/landing device, and program | |
US10417755B1 (en) | Drone-based inspection of wireless communication towers and corresponding methods, systems, and apparatuses | |
ES2978374T3 (en) | Flying object control system, control device and marker of the same | |
CN106501829A (en) | A kind of Navigation of Pilotless Aircraft method and apparatus | |
CN112335190A (en) | Radio link coverage map and impairment system and method | |
JP2019016197A (en) | Moving entity induction system | |
CN117130392B (en) | Unmanned aerial vehicle for indoor positioning navigation based on BIM data and control method | |
Hennage et al. | Fully autonomous drone for underground use | |
JP7554726B2 (en) | Method for moving and searching for unmanned vehicle | |
CN202600151U (en) | Light-duty airborne three dimensional laser radar system | |
JP2020135327A (en) | Flight body system, flight body, position measuring method and program | |
JP7343046B2 (en) | Takeoff and landing facilities, aircraft systems, and landing control methods | |
US20220230550A1 (en) | 3d localization and mapping systems and methods | |
WO2023228283A1 (en) | Information processing system, movable body, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240828 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7554726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |