JP2023045829A - Unmanned mobile body moving method and exploring method - Google Patents

Unmanned mobile body moving method and exploring method Download PDF

Info

Publication number
JP2023045829A
JP2023045829A JP2021154417A JP2021154417A JP2023045829A JP 2023045829 A JP2023045829 A JP 2023045829A JP 2021154417 A JP2021154417 A JP 2021154417A JP 2021154417 A JP2021154417 A JP 2021154417A JP 2023045829 A JP2023045829 A JP 2023045829A
Authority
JP
Japan
Prior art keywords
unmanned
mobile body
unmanned mobile
moving
flying object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021154417A
Other languages
Japanese (ja)
Other versions
JP7554726B2 (en
Inventor
勝博 仲野
Katsuhiro Nakano
良至 亀井
Yoshiyuki Kamei
大 大浜
Masaru Ohama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kajima Corp
Original Assignee
Kajima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kajima Corp filed Critical Kajima Corp
Priority to JP2021154417A priority Critical patent/JP7554726B2/en
Publication of JP2023045829A publication Critical patent/JP2023045829A/en
Application granted granted Critical
Publication of JP7554726B2 publication Critical patent/JP7554726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a moving method and an exploring method that enable an unmanned mobile body to move in a target section without requiring a GNSS signal and without requiring equipment to be installed in a target space in advance.SOLUTION: The method of moving an unmanned flying object 3 is a method of moving the unmanned flying object 3 through a shield tunnel 101 extending forward in the direction of movement from a predetermined starting point P0, including a first step, a second step, a third step, ... in which mapping is performed for each part of an area of the shield tunnel 101. In the k-th step (where k=2, 3, ...), the unmanned flying object 3 moves from the starting point P0 to a way point P(k-1) stored by the unmanned flying object 3 in the (k-1)-th step, performs the mapping of the k-th area before the way point P(k-1) by SLAM processing, and returns to the starting point so that a way point Pk set within the mapped k-th area is stored in the unmanned flying object 3.SELECTED DRAWING: Figure 1

Description

本発明は、無人移動体の移動方法及び探査方法に関するものである。 TECHNICAL FIELD The present invention relates to a moving method and an exploration method for an unmanned mobile body.

従来、このような分野の技術として、下記特許文献1に記載の検査システムが知られている。この検査システムでは、検査機器を搭載した無人飛行船をボイラ火炉の内部空間で飛行させている。そして、無人飛行船がボイラ火炉内部で各検査対象部に移動し、検査機器により、外観画像、熱画像、音響、風速等が取得される。この検査システムでは、GPS技術を用いて無人飛行船の現在位置が認識される。あるいは、ボイラ火炉内の例えば四隅に設置された送信機から無人飛行船が信号を受信しこの信号に基づく三次元位置計測によって無人飛行船の現在位置が認識されることで、無人飛行船の飛行が制御される。 Conventionally, an inspection system described in Patent Document 1 below is known as a technique in such a field. In this inspection system, an unmanned airship equipped with inspection equipment is flown inside the boiler furnace. Then, the unmanned airship moves to each inspection object inside the boiler furnace, and the inspection equipment acquires an external image, a thermal image, sound, wind velocity, and the like. This inspection system uses GPS technology to recognize the current position of the unmanned airship. Alternatively, the unmanned airship receives signals from transmitters installed, for example, at the four corners of the boiler furnace, and the current position of the unmanned airship is recognized by three-dimensional position measurement based on these signals, thereby controlling the flight of the unmanned airship. be.

特開2004-211995号公報Japanese Patent Application Laid-Open No. 2004-211995

しかしながら、この種の無人移動体による探査では、GPS衛星の電波が届かない場所を探査の対象空間とする場合があり、GNSS(Global Navigation Satellite System)が使用できない場合もある。また、この種の探査においては、どのような環境であるかを事前に知ることができない空間を探査の対象とする場合もある。この場合、対象空間の安全性は未確認であるので、人が事前に立ち入ることができず機器等を事前に対象空間に設置することは困難である。そうすると、対象空間内の機器等に頼る無人移動体の移動制御を行うこともできない。 However, in exploration by this type of unmanned mobile body, there are cases where the space to be explored is a place where radio waves from GPS satellites cannot reach, and GNSS (Global Navigation Satellite System) cannot be used in some cases. Moreover, in this type of exploration, there are cases where the exploration target is a space whose environment cannot be known in advance. In this case, since the safety of the target space has not been confirmed, it is difficult for people to enter the target space in advance and to install devices and the like in the target space in advance. As a result, it is not possible to control the movement of an unmanned mobile object that relies on equipment or the like in the target space.

このような課題に鑑み、本発明は、GNSS信号を必要とせず且つ事前に対象空間内に設置する機器類を必要とせずに無人移動体を対象区間で移動可能とする移動方法及び探査方法を提供することを目的とする。 In view of such problems, the present invention provides a movement method and an exploration method that enable an unmanned mobile body to move in a target section without requiring a GNSS signal and without requiring equipment to be installed in the target space in advance. intended to provide

本発明の無人移動体の移動方法は、所定の開始地点から移動方向前方に広がる所定の対象空間を無人移動体に移動させるための無人移動体の移動方法であって、対象空間内の領域の一部ずつのマッピングが行われる第1工程、第2工程、第3工程、…を備え、第k工程(但しk=2,3,…)では、無人移動体が開始地点に設置された状態から、無人移動体が第(k-1)工程で記憶した第(k-1)ウエイポイントに移動しSLAM処理によって第(k-1)ウエイポイントの前方の第k領域のマッピングを行って開始地点に戻り、マッピングされた第k領域内に設定される第kウエイポイントが無人移動体に記憶される。 A moving method of an unmanned mobile body according to the present invention is a moving method of an unmanned mobile body for moving an unmanned mobile body in a predetermined target space that spreads forward in a moving direction from a predetermined starting point. 1st step, 2nd step, 3rd step, . , the unmanned mobile body moves to the (k-1)-th waypoint stored in the (k-1)th step, and performs SLAM processing to map the k-th area ahead of the (k-1)-th waypoint. Returning to the point, the kth waypoint set within the kth mapped region is stored in the unmanned vehicle.

本発明の無人移動体の移動方法では、無人移動体のSLAM処理により検出可能である物理的なターゲットが開始地点の近傍に少なくとも3つ固定されており、第k工程(但しk=1,2,…)では、無人移動体は、開始地点近傍においてSLAM処理で検知した物理的ターゲットの位置に基づいて自機の位置を認識する、こととしてもよい。 In the unmanned mobile body movement method of the present invention, at least three physical targets that can be detected by SLAM processing of the unmanned mobile body are fixed in the vicinity of the starting point. , . . . ), the unmanned mobile object may recognize its position based on the position of the physical target detected by SLAM processing near the starting point.

また、第k工程(但しk=1,2,…)では、開始地点に戻った無人移動体が記憶している第k領域のマッピング情報に基づいて無人移動体の移動シミュレーションが実行され、移動シミュレーションにより無人移動体が開始地点から往復移動可能であると判断されたポイントが第kウエイポイントとして設定される、こととしてもよい。 Further, in the k-th step (where k=1, 2, . The k-th waypoint may be set at a point at which the unmanned mobile body is determined to be able to make a round trip from the start point by simulation.

また、第k工程(但しk=3,4,…)では、無人移動体は、開始地点から第1~第(k-1)ウエイポイントを順に通過する移動経路で開始地点から第(k-1)ウエイポイントまで移動する、こととしてもよい。また、無人移動体は、対象空間内を飛行可能でありSLAM処理用のスキャン装置を備える無人飛行体である、こととしてもよい。また、無人飛行体は、動力源を有する本体と、本体から下方に延びる一対の着地用脚部と、本体の下方で着地用脚部同士の間に架け渡される梁部と、を備え、スキャン装置は梁部に設置されている、こととしてもよい。 Further, in the k-th step (where k=3, 4, . . . ), the unmanned mobile object moves from the starting point to the (k-th) waypoint on a movement route passing through the first to (k-1)th waypoints in order from the starting point. 1) You may move to a waypoint. Also, the unmanned mobile object may be an unmanned flying object capable of flying in the target space and equipped with a scanning device for SLAM processing. Further, the unmanned air vehicle includes a main body having a power source, a pair of landing legs extending downward from the main body, and a beam extending between the landing legs below the main body. The device may be installed on the beam.

本発明の探査方法では、対象空間内の環境情報を取得するセンサ類を備える無人移動体が上記の何れかの無人移動体の移動方法により対象空間内で移動し、無人移動体による対象空間内の移動中にセンサ類で得られる環境情報が収集される。 In the exploration method of the present invention, an unmanned mobile body equipped with sensors for acquiring environmental information in the target space moves in the target space by any of the methods for moving the unmanned mobile body, and the unmanned mobile body moves in the target space. Environmental information obtained by sensors during the movement of the robot is collected.

本発明によれば、GNSS信号を必要とせず且つ事前に対象空間内に設置する機器類を必要とせずに無人移動体を対象区間で移動可能とする移動方法及び探査方法を提供することができる。 According to the present invention, it is possible to provide a movement method and an exploration method that enable an unmanned mobile body to move in a target section without requiring a GNSS signal and without requiring equipment to be installed in the target space in advance. .

本実施形態の無人移動体の移動方法及び探査方法が適用されるシールドトンネルを示す断面図である。1 is a cross-sectional view showing a shield tunnel to which the method for moving an unmanned vehicle and the method for searching according to the present embodiment are applied; FIG. (a)は、無人探査システムのブロック図であり、(b)は無人飛行体の総合制御部の物理的な構成を示すブロック図である。1(a) is a block diagram of an unmanned exploration system, and FIG. 1(b) is a block diagram showing the physical configuration of an integrated control unit of an unmanned flying vehicle; FIG. (a)は開始地点近傍を示す斜視図であり、(b)はそのターゲットを拡大して示す斜視図である。(a) is a perspective view showing the vicinity of the start point, and (b) is an enlarged perspective view showing the target. 無人飛行体の正面図である。1 is a front view of an unmanned air vehicle; FIG. 本実施形態のシールドトンネルの探査方法を示すフローチャートである。It is a flowchart which shows the search method of the shield tunnel of this embodiment. 図5に続いて、本実施形態のシールドトンネルの探査方法を示すフローチャートである。FIG. 5 is a flow chart showing the shield tunnel search method according to the present embodiment, following FIG.

以下、図面を参照しながら本発明に係る無人移動体の移動方法及び探査方法の実施形態について詳細に説明する。図1は、本発明に係る移動方法及び探査方法の対象空間の一例を示す鉛直断面図である。本実施形態では、シールドマシーンによって地下に形成されたシールドトンネル101を対象空間の一例として説明する。シールドトンネル101は立坑103の下部から概ね水平方向に延びている。このシールドトンネル101内には、例えば、崩落の可能性がある箇所、水没している箇所、瓦礫が散乱している箇所、有毒ガスが存在する箇所などが存在する可能性があり、シールドトンネル101内の安全性は未確認である。 Hereinafter, embodiments of an unmanned mobile body moving method and an exploration method according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a vertical cross-sectional view showing an example of the object space of the movement method and the exploration method according to the present invention. In this embodiment, a shield tunnel 101 formed underground by a shield machine will be described as an example of the target space. Shield tunnel 101 extends generally horizontally from the bottom of shaft 103 . In this shield tunnel 101, for example, there may be places that may collapse, places that are submerged, places where rubble is scattered, places where toxic gas exists, and the like. The safety inside is unconfirmed.

このシールドトンネル101内の環境を無人で確認するために、図2(a)に示されるように無人飛行体3(無人移動体、無人飛行体)を備える無人探査システム1が使用される。シールドトンネル101は地下空間であるのでGNSS信号を利用する無人飛行体3の飛行制御はできない。また、シールドトンネル101内に人が事前に立ち入ることもできないので、シールドトンネル101内に事前に機器等を設置するといったこともできない。従って、シールドトンネル101内に設置済みの機器等(例えば、無人飛行体3が認識可能な標識や無線通信の中継点等)を利用して無人飛行体3の飛行制御を行うといったこともできない。また、シールドトンネル101が地下空間であることから太陽光は届かず、事前に照明器具等を設置することもできないので、シールドトンネル101内はほぼ真っ暗である。以上のような条件のシールドトンネル101を対象空間として、無人探査システム1は、無人飛行体3の自律的な飛行及び探査を可能にするものである。 In order to unmannedly confirm the environment inside the shield tunnel 101, an unmanned exploration system 1 equipped with an unmanned flying object 3 (unmanned moving object, unmanned flying object) is used as shown in FIG. 2(a). Since the shield tunnel 101 is an underground space, flight control of the unmanned air vehicle 3 using GNSS signals cannot be performed. In addition, since a person cannot enter the shield tunnel 101 in advance, it is impossible to install equipment or the like in the shield tunnel 101 in advance. Therefore, it is not possible to control the flight of the unmanned flying object 3 using equipment already installed in the shield tunnel 101 (for example, a sign that the unmanned flying object 3 can recognize, a wireless communication relay point, etc.). In addition, since the shield tunnel 101 is an underground space, sunlight does not reach it, and it is impossible to install lighting fixtures or the like in advance, so the inside of the shield tunnel 101 is almost completely dark. The unmanned exploration system 1 enables autonomous flight and exploration of the unmanned flying object 3 with the shield tunnel 101 having the above conditions as the target space.

図2(a)に示されるように、無人探査システム1は、シールドトンネル101内を飛行する無人飛行体3と、シールドトンネル101の坑口近傍で探査作業者が使用する探査支援端末5と、を備えている。本実施形態では、探査の拠点として立坑103の底部近傍に開始地点P0が設定され、無人飛行体3はこの開始地点P0で離着陸する。開始地点P0には例えば無人飛行体3の離着陸用の台座が設置されてもよい。探査支援端末5は、例えば、開始地点P0近傍で使用されるコンピュータシステムであり、無人飛行体3の総合制御部13(後述)と有線又は無線で接続され情報の授受を行う。探査支援端末5は、例えば、開始地点P0近傍で探査作業者が操作するパーソナルコンピュータと、無人飛行体3の飛行を遠隔操作する遠隔操作コントローラと、を有している。あるいは、上記パーソナルコンピュータに遠隔操作コントローラの機能が組み込まれていてもよい。 As shown in FIG. 2( a ), the unmanned exploration system 1 includes an unmanned flying object 3 that flies in a shield tunnel 101 and an exploration support terminal 5 that is used by an exploration worker near the portal of the shield tunnel 101 . I have. In this embodiment, a starting point P0 is set near the bottom of the shaft 103 as a base for exploration, and the unmanned air vehicle 3 takes off and lands at this starting point P0. At the start point P0, for example, a pedestal for takeoff and landing of the unmanned air vehicle 3 may be installed. The exploration support terminal 5 is, for example, a computer system used in the vicinity of the start point P0, and is connected to a general control unit 13 (described later) of the unmanned flying vehicle 3 by wire or wirelessly to exchange information. The exploration support terminal 5 has, for example, a personal computer operated by an exploration worker near the start point P0 and a remote control controller for remotely controlling the flight of the unmanned air vehicle 3 . Alternatively, the function of a remote control controller may be incorporated in the personal computer.

無人飛行体3は、飛行の動力源を有するドローン11と、ドローン11に積載される各種の積載機器と、を備えている。上記の積載機器には、総合制御部13と、スキャン装置15と、光学カメラ17と、ガスセンサ19と、他のセンサ類21と、が含まれている。ドローン11は、例えば、推力を発生する複数のプロペラと、各プロペラを駆動するモータと、モータの電力源であるバッテリーと、を備えている。このようなドローン11としては、市販の公知のドローンが採用されてもよい。 The unmanned air vehicle 3 includes a drone 11 having a power source for flight and various types of equipment loaded on the drone 11 . The above-mentioned loading equipment includes a general control section 13, a scanning device 15, an optical camera 17, a gas sensor 19, and other sensors 21. As shown in FIG. The drone 11 includes, for example, a plurality of propellers that generate thrust, motors that drive the propellers, and batteries that are power sources for the motors. As such a drone 11, a commercially available known drone may be adopted.

総合制御部13は、例えばドローン11に載積可能な比較的小型のコンピュータシステムで構成される。総合制御部13は、ドローン11が備える飛行制御コンピュータ(図示せず)に接続されて信号の授受を行い、当該飛行制御コンピュータを介してドローン11の飛行を制御することができる。また総合制御部13は、スキャン装置15と、光学カメラ17と、ガスセンサ19と、他のセンサ類21と、の動作の制御も行う。総合制御部13は、シールドトンネル101の探査に必要な情報を記憶する情報記憶部13aと、探査支援端末5との通信を有線又は無線で行うための通信部13bと、を有している。 The integrated control unit 13 is composed of a relatively small computer system that can be mounted on the drone 11, for example. The integrated control unit 13 is connected to a flight control computer (not shown) included in the drone 11 to exchange signals, and can control the flight of the drone 11 via the flight control computer. The integrated control unit 13 also controls the operations of the scanning device 15 , the optical camera 17 , the gas sensor 19 , and other sensors 21 . The integrated control unit 13 has an information storage unit 13a that stores information necessary for exploration of the shield tunnel 101, and a communication unit 13b that communicates with the exploration support terminal 5 by wire or wirelessly.

総合制御部13は、物理的には、図2(b)に示されるように、CPU211、主記憶装置であるRAM212及びROM213、シリコンドライブ又はハードディスク等の補助記憶装置214、ユーザ操作を受け付けるボタン、スイッチ等の入力装置215、外部に情報を表示するディスプレイ、インジケータランプ等の出力装置216、データ送受信デバイスである通信モジュール217などを含むコンピュータシステムとして構成されている。本実施形態で説明する総合制御部13の各機能は、CPU211、RAM212等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU211の制御のもとで通信モジュール217、入力装置215、出力装置216を動作させるとともに、RAM212や補助記憶装置214におけるデータの読み出し及び書き込みを行うことで実現される。 As shown in FIG. 2B, the integrated control unit 13 physically includes a CPU 211, a RAM 212 and a ROM 213 as main storage devices, an auxiliary storage device 214 such as a silicon drive or a hard disk, buttons for accepting user operations, It is configured as a computer system including an input device 215 such as a switch, a display for displaying information externally, an output device 216 such as an indicator lamp, a communication module 217 as a data transmission/reception device, and the like. Each function of the integrated control unit 13 described in the present embodiment is performed by loading predetermined computer software onto hardware such as the CPU 211 and the RAM 212 so that the communication module 217, the input device 215, and the output It is realized by operating the device 216 and reading and writing data in the RAM 212 and the auxiliary storage device 214 .

無人飛行体3のスキャン装置15は、3D LiDAR(3D lightdetection and ranging)装置等と呼ばれる装置であり、無人飛行体3の飛行中に周囲に非可視のレーザ光を出射し周囲の物体からのレーザ反射光を受光することで、当該物体上の各点までの距離を測定する。スキャン装置15は、水平面から上下方向に±15°の範囲で水平方向に全周をスキャンし、このスキャン範囲内の物体(例えば、シールドトンネル101の内壁面)上の点について、各点までの距離情報を収集していく。このような各点の集合である点群情報が総合制御部13に送信され情報記憶部13aに記憶され蓄積されていく。 The scanning device 15 of the unmanned air vehicle 3 is a device called a 3D LiDAR (3D light detection and ranging) device or the like. By receiving the reflected light, the distance to each point on the object is measured. The scanning device 15 scans the entire circumference in the horizontal direction within a range of ±15° in the vertical direction from the horizontal plane, and points on the object (for example, the inner wall surface of the shield tunnel 101) within this scanning range. Collect distance information. The point group information, which is a set of such points, is transmitted to the general control section 13 and stored in the information storage section 13a.

総合制御部13ではスキャン装置15からの上記点群情報に基づいて飛行中の無人飛行体3の周囲の物体の三次元位置及び三次元形状が認識される。すなわち、総合制御部13は、周囲の物体の三次元的な配置を認識するとともに、周囲の物体に対する無人飛行体3の相対的な三次元位置を認識することができる。このように、無人飛行体3の周囲の物体のマッピングと無人飛行体3の自己位置特定とを同時に行う処理は、SLAM(Simultaneous Localization and Mapping)処理と呼ばれる。本実施形態におけるスキャン装置15及び総合制御部13は、レーザ光を用いた3D LiDAR装置によってLiDAR-SLAM処理を行う。LiDAR-SLAM処理は公知であるので更なる詳細な説明を省略する。LiDAR-SLAM処理により得られるマッピング情報は、無人飛行体3の周囲の物体上の点群の位置情報であり、総合制御部13の情報記憶部13aに記憶されていく。 Based on the point group information from the scanning device 15, the general control unit 13 recognizes the three-dimensional position and three-dimensional shape of objects around the unmanned flying object 3 in flight. That is, the integrated control unit 13 can recognize the three-dimensional arrangement of the surrounding objects and the relative three-dimensional position of the unmanned air vehicle 3 with respect to the surrounding objects. Such a process of simultaneously mapping objects around the unmanned flying object 3 and identifying the self-location of the unmanned flying object 3 is called SLAM (Simultaneous Localization and Mapping) processing. The scanning device 15 and the general control unit 13 in this embodiment perform LiDAR-SLAM processing by a 3D LiDAR device using laser light. Since the LiDAR-SLAM process is well known, further detailed description is omitted. The mapping information obtained by LiDAR-SLAM processing is position information of point groups on objects around the unmanned air vehicle 3, and is stored in the information storage unit 13a of the integrated control unit 13. FIG.

ここで、図3(a)に示されるように、開始地点P0の周囲には、無人飛行体3の自己位置のキャリブレーションを行うための3つの物理的なターゲット31が設置される。ターゲット31は例えば直径10~20cm程度の球形をなしており、図3(b)に示されるように各ターゲット31には高さ位置を調整するための脚部31aが取付けられている。すべてのターゲット31は、開始地点P0に着地した状態における無人飛行体3のスキャン装置15のスキャン範囲内に設置される。各ターゲット31は、例えば立坑103の底面に脚部31aが固定されることで、立坑103内で位置固定される。脚部31aを省略してターゲット31が立坑103の底壁面や側壁等に直接設置されてもよい。スキャン装置15によるターゲット31の検出を容易にするために、ターゲット31の球表面は、スキャン装置15のレーザ光を回帰反射する回帰反射材料からなる。 Here, as shown in FIG. 3A, three physical targets 31 for calibrating the self-position of the unmanned air vehicle 3 are installed around the start point P0. The targets 31 are, for example, spherical with a diameter of about 10 to 20 cm. As shown in FIG. 3B, each target 31 is provided with legs 31a for adjusting the height position. All the targets 31 are set within the scanning range of the scanning device 15 of the unmanned air vehicle 3 in the state of landing at the starting point P0. Each target 31 is positionally fixed within the vertical shaft 103 by fixing the leg portion 31a to the bottom surface of the vertical shaft 103, for example. The target 31 may be directly installed on the bottom wall surface, side wall, or the like of the shaft 103 by omitting the leg portion 31a. In order to facilitate detection of the target 31 by the scanning device 15 , the spherical surface of the target 31 is made of a retroreflective material that retroreflects the laser beam of the scanning device 15 .

設置された3つのターゲット31は事前に測量されており、各ターゲット31の三次元的な絶対座標は既知である。また、上記の測量による各ターゲット31の絶対座標は、無人飛行体3の総合制御部13の情報記憶部13aに事前に記憶されている。無人飛行体3のスキャン装置15が各ターゲット31をスキャンすることで、総合制御部13は、無人飛行体3に対する3つのターゲット31の相対位置を取得することができる。そして総合制御部13は、上記スキャンで得られた各ターゲット31の上記相対位置と、事前に情報記憶部13aに記憶された各ターゲット31の絶対座標と、の比較に基づいて、無人飛行体3の絶対位置を認識することができる。 The three installed targets 31 are surveyed in advance, and the three-dimensional absolute coordinates of each target 31 are known. Further, the absolute coordinates of each target 31 obtained by the above survey are stored in advance in the information storage section 13a of the integrated control section 13 of the unmanned air vehicle 3. FIG. The scanning device 15 of the unmanned air vehicle 3 scans each target 31 , so that the integrated control unit 13 can acquire the relative positions of the three targets 31 with respect to the unmanned air vehicle 3 . Then, the integrated control unit 13 compares the relative position of each target 31 obtained by the scanning with the absolute coordinates of each target 31 stored in advance in the information storage unit 13a, and then determines the position of the unmanned flying object 3. can recognize the absolute position of

上記の無人飛行体3の「絶対位置」には、無人飛行体3の絶対的な3次元的な座標と、無人飛行体3の絶対的な3次元的な向き(姿勢)と、が含まれる。なお、このような無人飛行体3の絶対位置の認識精度を向上するために、3つのターゲット31は例えば平面視で開始地点P0を囲む三角形の各頂点に配置されることが好ましく、上記三角形を大きくすることが好ましい。また、スキャン装置15による検出を容易にするために、ターゲット31の高さ位置は、無人飛行体3が開始地点P0に着地した状態において、スキャン装置15とほぼ同じ高さ位置であることが好ましい。また、ターゲット31のサイズが小さすぎるとスキャン装置15による検出が困難になり、ターゲット31のサイズが大きすぎるとスキャン装置15により検知される位置精度が低下する。この観点から、ターゲット31のサイズは前述のように直径10~20cmであることが好ましい。また、ターゲット31の設置個数は3つ以上であればよいが、絶対位置の認識精度の向上のために4つ以上のターゲット31が設置されてもよい。 The "absolute position" of the unmanned flying object 3 includes the absolute three-dimensional coordinates of the unmanned flying object 3 and the absolute three-dimensional orientation (orientation) of the unmanned flying object 3. . In order to improve the accuracy of recognizing the absolute position of the unmanned flying object 3, the three targets 31 are preferably arranged at the vertices of a triangle surrounding the start point P0 in plan view. Larger is preferred. In addition, in order to facilitate detection by the scanning device 15, the height position of the target 31 is preferably approximately the same height position as the scanning device 15 when the unmanned air vehicle 3 has landed at the starting point P0. . Also, if the size of the target 31 is too small, detection by the scanning device 15 becomes difficult, and if the size of the target 31 is too large, the accuracy of the position detected by the scanning device 15 decreases. From this point of view, the size of the target 31 is preferably 10 to 20 cm in diameter as described above. Further, the number of targets 31 to be installed may be three or more, but four or more targets 31 may be installed to improve the accuracy of absolute position recognition.

更に無人飛行体3は、飛行中においてシールドトンネル101内の環境情報を取得するセンサ類を備えている。図2(a)に示されるように、このようなセンサ類の例として、本実施形態の無人飛行体3は、前述の光学カメラ17とガスセンサ19と他のセンサ類21とを備えている。これらのセンサ類で取得された環境情報は総合制御部13に送出され、総合制御部13は通信部13bを介して当該環境情報を探査支援端末5に送信する。 Further, the unmanned air vehicle 3 is equipped with sensors for acquiring environmental information in the shield tunnel 101 during flight. As shown in FIG. 2(a), as examples of such sensors, the unmanned flying object 3 of this embodiment includes the optical camera 17, gas sensor 19, and other sensors 21 described above. The environmental information acquired by these sensors is sent to the integrated control unit 13, and the integrated control unit 13 transmits the environmental information to the exploration support terminal 5 via the communication unit 13b.

光学カメラ17は例えば360°カメラであり、無人飛行体3の周囲を可視光で動画撮影する。なお、前述の通りシールドトンネル101内は暗所であるので、光学カメラ17の動画撮影を可能にすべく、無人飛行体3は周囲に向けて投光する照明装置(例えば高輝度LEDビデオライト)を備えている。この光学カメラ17により、無人飛行体3の周囲の動画が撮影され、例えば、シールドトンネル101の内周面の外観の情報を取得することができる。光学カメラ17としては、市販の360°カメラ等が採用されてもよい。 The optical camera 17 is, for example, a 360° camera, and shoots moving images around the unmanned flying object 3 using visible light. As described above, since the shield tunnel 101 is a dark place, the unmanned flying object 3 is equipped with a lighting device (for example, a high-intensity LED video light) that projects light toward the surroundings so that the optical camera 17 can capture moving images. It has This optical camera 17 captures a moving image around the unmanned flying object 3, and for example, information on the appearance of the inner peripheral surface of the shield tunnel 101 can be obtained. A commercially available 360° camera or the like may be adopted as the optical camera 17 .

ガスセンサ19は、無人飛行体3の近傍の空気中に含まれる所定のガス成分(例えば有毒なガス)の濃度を測定するセンサである。ガスセンサ19が濃度測定するガス成分としては、例えば酸素、一酸化炭素、可燃性ガス、硫化水素などがある。他のセンサ類21は、無人飛行体3の近傍の他の環境情報を取得するためのセンサ類である。他のセンサ類21としては、例えば、温度センサ、湿度センサ、粉塵濃度センサ、照度センサ、風速センサ、騒音センサ、振動センサ、などがある。 The gas sensor 19 is a sensor that measures the concentration of a predetermined gas component (for example, toxic gas) contained in the air near the unmanned flying object 3 . Gas components whose concentrations are measured by the gas sensor 19 include, for example, oxygen, carbon monoxide, combustible gases, and hydrogen sulfide. Other sensors 21 are sensors for acquiring other environmental information in the vicinity of the unmanned air vehicle 3 . Other sensors 21 include, for example, a temperature sensor, a humidity sensor, a dust concentration sensor, an illuminance sensor, a wind speed sensor, a noise sensor, a vibration sensor, and the like.

無人飛行体3の物理的な構成は次の通りである。図4に示されるように、ドローン11は上端部に配置された4枚のプロペラ11aを備えている。更に無人飛行体3は、機体の左右対称の位置でドローン11から下方に延びる一対の着地用脚部23を備えている。なお、着地用脚部23は市販のドローン11の一部として備えられていてもよい。これらの着地用脚部23同士の間に架け渡されるように、機体の左右方向に延びる梁部27が設けられている。この梁部27の中央上面に直方体形状の総合制御部13が固定され、更に総合制御部13の上面に同等の大きさの円柱形状のスキャン装置15が取付けられている。すなわち、総合制御部13及びスキャン装置15がドローン11の下方の中央部で上下に重ねて配置される。このように、主な重量物である総合制御部13及びスキャン装置15がドローン11の下方の中央部に配置されることで、無人飛行体3の安定した飛行が可能になる。また、比較的小型軽量である光学カメラ17、照明装置、ガスセンサ19、及び他のセンサ類21については、図示を省略しているが、重量のバランスを考慮してそれぞれドローン11の上面又は下面や着地用脚部23等に適宜取付ければよい。 The physical configuration of the unmanned air vehicle 3 is as follows. As shown in FIG. 4, the drone 11 has four propellers 11a arranged at its upper end. Further, the unmanned air vehicle 3 has a pair of landing legs 23 extending downward from the drone 11 at symmetrical positions of the airframe. Note that the landing legs 23 may be provided as part of the commercially available drone 11 . A beam portion 27 extending in the lateral direction of the fuselage is provided so as to bridge between the landing legs 23 . A rectangular parallelepiped general control section 13 is fixed to the center upper surface of the beam section 27 , and a columnar scanning device 15 having the same size as the general control section 13 is attached to the upper surface of the general control section 13 . That is, the integrated control unit 13 and the scanning device 15 are arranged vertically in a central portion below the drone 11 . In this manner, the integrated control unit 13 and the scanning device 15, which are the main heavy components, are arranged in the lower central portion of the drone 11, so that the unmanned flying object 3 can fly stably. The optical camera 17, the lighting device, the gas sensor 19, and the other sensors 21, which are relatively small and light, are not shown in the drawings, but they can be mounted on the upper surface or the lower surface of the drone 11 in consideration of the weight balance. It may be appropriately attached to the landing leg portion 23 or the like.

続いて、上述のような無人探査システム1を用いたシールドトンネル101内の探査方法について、図1、図5、及び図6を参照しながら説明する。図5及び図6は、当該探査方法によるシールドトンネル101内の探査作業のフローチャートである。以下の説明における無人飛行体3等の動作は、総合制御部13及び探査支援端末5が所定の飛行制御プログラムを実行することにより実現される。この探査作業において、シールドトンネル101内での無人飛行体3の移動方法は、下に説明するような第1工程、第2工程、…、第m工程(m=2,3,…)が順に実行されることにより移動可能な領域A1,A2,…,Amを移動方向前方に向かって(すなわちシールドトンネル101の切羽側に向かって)徐々に追加していくといったものである。以下では、シールドトンネル101の切羽側を「移動方向前方」又は単に「前方」と言う場合があり、シールドトンネル101の坑口側を「移動方向後方」又は単に「後方」と言う場合がある。上記のmの値は、例えば無人飛行体3の航続距離等の条件を考慮して適切に決定される。 Next, a method for searching inside the shield tunnel 101 using the unmanned exploration system 1 as described above will be described with reference to FIGS. 1, 5, and 6. FIG. 5 and 6 are flow charts of the exploration work inside the shield tunnel 101 according to the exploration method. The operations of the unmanned flying object 3 and the like in the following description are realized by the general control unit 13 and the exploration support terminal 5 executing a predetermined flight control program. In this exploration work, the method of moving the unmanned flying object 3 within the shield tunnel 101 is as follows: first step, second step, . . . , m-th step (m=2, 3, . , Am are gradually added forward in the moving direction (that is, toward the face side of the shield tunnel 101). Hereinafter, the face side of the shield tunnel 101 may be referred to as "moving direction forward" or simply "forward", and the portal side of the shield tunnel 101 may be referred to as "moving direction rearward" or simply "rear". The above value of m is appropriately determined in consideration of conditions such as the cruising range of the unmanned air vehicle 3, for example.

詳細は後述するが、
第1工程では、開始地点P0の前方の領域A1のマッピング情報が取得され当該領域A1内にウエイポイントP1が設定され、
第2工程では、領域A1の更に前方の領域A2のマッピング情報が取得され当該領域A2内にウエイポイントP2が設定され、
第3工程では、領域A2の更に前方の領域A3のマッピング情報が取得され当該領域A3内にウエイポイントP3が設定され、
…、
第m工程では、領域A(m-1)の更に前方の領域Amのマッピング情報が取得され当該領域Am内にウエイポイントPmが設定される。
Details will be described later, but
In the first step, the mapping information of the area A1 in front of the starting point P0 is acquired and the waypoint P1 is set in the area A1,
In the second step, the mapping information of the area A2 further ahead of the area A1 is obtained, and the waypoint P2 is set in the area A2,
In the third step, the mapping information of the area A3 further ahead of the area A2 is acquired, and the waypoint P3 is set in the area A3,
…,
In the m-th step, the mapping information of the area Am further ahead of the area A(m−1) is acquired, and the waypoint Pm is set within the area Am.

領域A1~Amは何れもシールドトンネル101内の一部の領域であり、ウエイポイントP1~Pmは、無人飛行体3の飛行通過点として領域A1~Am内にそれぞれ設定され総合制御部13で認識される仮想的な点である。ウエイポイントP1~Pmは、探査作業者が手動で選択し、それぞれ、領域A1~Amのうち最前部に近い位置に設定される。なお、ウエイポイントP1~Pmは無人飛行体3の飛行通過点であり無人飛行体3の着地点ではないので、着地に適したポイントが選択される必要はない。 The areas A1 to Am are all part of the area within the shield tunnel 101, and the waypoints P1 to Pm are set within the areas A1 to Am as flight passage points of the unmanned aircraft 3 and recognized by the integrated control unit 13. It is a virtual point where The waypoints P1 to Pm are manually selected by the exploration operator and set to positions near the forefront of the areas A1 to Am, respectively. Note that the waypoints P1 to Pm are flight passage points of the unmanned air vehicle 3 and are not landing points of the unmanned air vehicle 3, so there is no need to select points suitable for landing.

以下、第1工程、第2工程、…、第m工程の詳細について説明する。ここでは、第1工程、第2工程、…、第m工程の1つの工程を「第k工程」(k=1~m)と一般化し、k=1の場合(第1工程)と、k=2~mの場合と、に分けて説明する。 Details of the first step, the second step, . . . , the m-th step will be described below. Here, one step of the first step, the second step, . =2 to m will be described separately.

〔第1工程(k=1の場合)〕
図5に示されるように、第1工程では、まず無人飛行体3が開始地点P0に設置される(図5のステップS302)。このとき無人飛行体3の総合制御部13は、スキャン装置15を用いたLiDAR-SLAM処理によって周囲の3つのターゲット31を検出し無人飛行体3の正確な絶対位置を認識する(ステップS304:キャリブレーション)。その後、総合制御部13はドローン11を始動し、無人飛行体3を開始地点P0において例えば鉛直に上昇させ再び下降させて開始地点P0に再着地させる(ステップS306)。ここでは、シールドトンネル101の坑口の天井よりも高い位置に無人飛行体3が達するように例えば5m程度上昇する。なお、上記のキャリブレーション(ステップS304)は、この上昇/下降(ステップS306)の間に実行されてもよい。上記の上昇/下降(ステップS306)の間、スキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13は、LiDAR-SLAM処理により、開始地点P0の周囲のマッピングを行う。そして、無人飛行体3が開始地点P0に再着地した時点では、開始地点P0の周囲のマッピング情報が情報記憶部13aに記憶されている(ステップS308)。
[First step (when k = 1)]
As shown in FIG. 5, in the first step, the unmanned air vehicle 3 is first installed at the starting point P0 (step S302 in FIG. 5). At this time, the integrated control unit 13 of the unmanned flying object 3 detects three surrounding targets 31 by LiDAR-SLAM processing using the scanning device 15, and recognizes the accurate absolute position of the unmanned flying object 3 (step S304: calibration option). After that, the integrated control unit 13 starts the drone 11, raises the unmanned flying object 3 vertically at the start point P0, lowers it again, and lands again at the start point P0 (step S306). Here, the unmanned flying object 3 rises, for example, by about 5 m so as to reach a position higher than the ceiling of the portal of the shield tunnel 101 . Note that the above calibration (step S304) may be performed during this ascent/descent (step S306). During the above ascending/descending (step S306), the scanning device 15 continuously scans surrounding objects, and the integrated control unit 13 performs mapping around the start point P0 by LiDAR-SLAM processing. Then, when the unmanned air vehicle 3 lands again at the start point P0, the mapping information around the start point P0 is stored in the information storage unit 13a (step S308).

上記のLiDAR-SLAM処理では、シールドトンネル101の坑口を通じてシールドトンネル101の奥側までスキャン装置15のレーザ光が届くので、シールドトンネル101の坑口よりも前方の領域までのマッピング情報が得られる。なお、一般的な3D LiDAR装置により物体検出が可能な距離は100m程度と言われている。従って、ここでは、最大でシールドトンネル101の坑口から例えば約80m前方(開始地点P0から約100m前方)の位置までのマッピング情報が得られると考えられる。このようにして、第1工程では、最大でシールドトンネル101の坑口から例えば約80m前方の位置までの領域である「領域A1」のマッピング情報が得られ情報記憶部13aに記憶される。 In the LiDAR-SLAM process described above, the laser light from the scanning device 15 reaches the innermost side of the shield tunnel 101 through the portal of the shield tunnel 101, so mapping information up to the area ahead of the portal of the shield tunnel 101 can be obtained. Note that the distance at which an object can be detected by a general 3D LiDAR device is said to be about 100 m. Therefore, in this case, it is considered that mapping information can be obtained up to a position approximately 80 m ahead of the portal of the shield tunnel 101 (approximately 100 m ahead of the start point P0), for example. In this way, in the first step, the mapping information of the "area A1", which is the area up to the position about 80 m ahead of the portal of the shield tunnel 101 at the maximum, is obtained and stored in the information storage unit 13a.

なお、このマッピング情報はスキャン装置15によって無人飛行体3との相対位置を示す情報として取得される。しかしながら、総合制御部13は前述のターゲット31を利用したキャリブレーション(ステップS304)により無人飛行体3の絶対位置を認識しているので、総合制御部13は取得された上記マッピング情報を、絶対位置で示されるマッピング情報に変換して情報記憶部13aに記憶する。同様にして、これ以降スキャン装置15で取得されるマッピング情報、ウエイポイントP1~Pmの位置情報、飛行ルート情報、無人飛行体3の現在位置情報、及びその他の位置情報はすべて、絶対位置で示される情報として総合制御部13で認識される。 Note that this mapping information is acquired by the scanning device 15 as information indicating the relative position with respect to the unmanned flying object 3 . However, since the integrated control unit 13 recognizes the absolute position of the unmanned air vehicle 3 through the above-described calibration using the target 31 (step S304), the integrated control unit 13 converts the obtained mapping information into the absolute position is stored in the information storage unit 13a. Similarly, the mapping information, the position information of the waypoints P1 to Pm, the flight route information, the current position information of the unmanned air vehicle 3, and other position information acquired by the scanning device 15 thereafter are all indicated by absolute positions. It is recognized by the general control unit 13 as information to be received.

無人飛行体3が開始地点P0に再着地し停止した後、探査作業者は、探査支援端末5を有線又は無線で無人飛行体3の総合制御部13に接続し、情報記憶部13aに記憶された領域A1のマッピング情報を探査支援端末5に読み出す(ステップS310)。また、探査支援端末5に読み出された領域A1のマッピング情報は当該探査支援端末5に記憶された後、情報記憶部13aからは消去されることで情報記憶部13aの記憶容量の節約が図られる。 After the unmanned flying object 3 re-lands and stops at the starting point P0, the exploration operator connects the exploration support terminal 5 to the integrated control unit 13 of the unmanned flying object 3 by wire or wirelessly, and the data is stored in the information storage unit 13a. The mapping information of the obtained area A1 is read out to the search support terminal 5 (step S310). Further, after the mapping information of the area A1 read out by the search support terminal 5 is stored in the search support terminal 5, it is deleted from the information storage unit 13a, thereby saving the storage capacity of the information storage unit 13a. be done.

探査支援端末5では、所定の飛行計画プログラムが実行され、読み出された領域A1のマッピング情報が、領域A1内に存在する物体(例えば、シールドトンネル101の内壁面)上の点群を示す視覚的な画像として表示される。この画像を参照しながら、探査作業者は、領域A1内の最前方近傍の任意のポイントを選択しウエイポイントP1として仮に設定する操作を行う(ステップS312)。 In the exploration support terminal 5, a predetermined flight plan program is executed, and the read mapping information of the area A1 is a visual representation of a point cloud on an object existing in the area A1 (for example, the inner wall surface of the shield tunnel 101). displayed as a typical image. While referring to this image, the exploration operator selects an arbitrary point in the vicinity of the frontmost point in the area A1 and temporarily sets it as the waypoint P1 (step S312).

続いて、探査作業者は、上記飛行計画プログラムに含まれるフライトシミュレータ機能を実行し、当該探査支援端末5に記憶された領域A1のマッピング情報及びウエイポイントP1の位置情報に基づいて、探査支援端末5上でフライトシミュレーションを実行する(ステップS314)。このフライトシミュレーションでは、領域A1のマッピング情報に基づいて無人飛行体3が開始地点P0からウエイポイントP1まで安全に往復飛行し帰還できることが確認される。なお、シミュレーションにおいて無人飛行体3の安全な往復飛行が不可能である場合には、必要に応じてウエイポイントP1の変更や飛行ルートの再設定等の調整も行いながらシミュレーションが繰り返される。そして最終的に、開始地点P0からの安全な往復飛行が可能なウエイポイントP1及び開始地点P0からウエイポイントP1までの飛行ルートF1が確定される。確定されたウエイポイントP1の位置情報及び飛行ルートF1の情報は、探査支援端末5に記憶されるとともに、無人飛行体3の総合制御部13にも送信され情報記憶部13aに記憶される。以上で第1工程が完了する。 Subsequently, the exploration operator executes the flight simulator function included in the flight plan program, and based on the mapping information of the area A1 and the positional information of the waypoint P1 stored in the exploration assistance terminal 5, the exploration assistance terminal 5, a flight simulation is performed (step S314). In this flight simulation, it is confirmed that the unmanned air vehicle 3 can safely fly back and forth from the start point P0 to the waypoint P1 and return based on the mapping information of the area A1. If the unmanned flying object 3 cannot safely fly back and forth in the simulation, the simulation is repeated while making adjustments such as changing the waypoint P1 and resetting the flight route as necessary. Finally, a waypoint P1 that allows safe round-trip flight from the start point P0 and a flight route F1 from the start point P0 to the waypoint P1 are determined. The determined position information of the waypoint P1 and the information of the flight route F1 are stored in the exploration support terminal 5, transmitted to the integrated control unit 13 of the unmanned flying vehicle 3, and stored in the information storage unit 13a. Thus, the first step is completed.

〔第k工程(k=2~mの場合)〕
上記の第1工程に続いて、第2工程、第3工程、…、第m工程が順に実行される。これらの第2~第m工程については、ほぼ同一の工程が繰返される(図6のステップS401、S418及びS420を参照)。以下の説明において、上記の第1工程と同一及び同等の処理については重複する詳細な説明を適宜省略する。
[Step k (when k = 2 to m)]
Following the first step, the second step, the third step, . . . , the mth step are executed in order. Almost the same steps are repeated for these second to m-th steps (see steps S401, S418 and S420 in FIG. 6). In the following description, overlapping detailed descriptions of the same or equivalent processes as in the first step will be omitted as appropriate.

第k工程の開始時には既に、
第1工程によって領域A1内のウエイポイントP1及び飛行ルートF1が設定済であり、
第2工程によって領域A2内のウエイポイントP2及び飛行ルートF2が設定済であり、
第3工程によって領域A3内のウエイポイントP3及び飛行ルートF3が設定済であり、
…、
第(k-1)工程によって領域A(k-1)内のウエイポイントP(k-1)及び飛行ルートF(k-1)が設定済である。
そして、ウエイポイントP1~P(k-1)の各位置情報及び飛行ルートF1~F(k-1)情報が探査支援端末5及び総合制御部13の情報記憶部13aに記憶されている。また、探査支援端末5には領域A1~A(k-1)のマッピング情報が更に記憶されている。なお、これらのウエイポイントP1~P(k-1)の位置情報、ウエイポイントP1~P(k-1)、及び領域A1~A(k-1)のマッピング情報は、前述の通り、絶対位置を示す情報として記憶されている。
Already at the beginning of the kth step,
A waypoint P1 and a flight route F1 within the area A1 have been set by the first step,
A waypoint P2 and a flight route F2 within the area A2 have been set by the second step,
A waypoint P3 and a flight route F3 within the area A3 have been set by the third step,
…,
A waypoint P(k-1) and a flight route F(k-1) within the area A(k-1) have been set by the (k-1) step.
The positional information of the waypoints P1 to P(k-1) and the information on the flight routes F1 to F(k-1) are stored in the search support terminal 5 and the information storage section 13a of the integrated control section 13. FIG. Further, the search support terminal 5 further stores mapping information of the areas A1 to A(k-1). The position information of these waypoints P1 to P(k-1), the mapping information of the waypoints P1 to P(k-1), and the areas A1 to A(k-1) are, as described above, absolute position is stored as information indicating

第k工程では、無人飛行体3が開始地点P0に設置され、総合制御部13の制御下で開始地点P0から飛行ルートF1~F(k-1)に沿ってウエイポイントP(k-1)まで往復飛行する。この往復飛行は無人飛行体3により自律的に行われ、開始地点P0近傍にいる探査作業者は、非常時を除いて、飛行中に無人飛行体3に対する操作を行う必要はない。この往復飛行の手順は次の通りである。 In the k-th step, the unmanned air vehicle 3 is installed at the start point P0, and under the control of the general control unit 13, from the start point P0 along the flight routes F1 to F(k-1) to the waypoint P(k-1). fly to and from This round-trip flight is autonomously performed by the unmanned flying object 3, and the exploration operator near the start point P0 does not need to operate the unmanned flying object 3 during flight except in an emergency. The procedure for this round-trip flight is as follows.

図6に示されるように、まず開始地点P0に無人飛行体3が設置された状態から(図6のステップS402)、総合制御部13はドローン11を始動し無人飛行体3を離陸させる。この離陸前又は離陸直後には、無人飛行体3の総合制御部13は、LiDAR-SLAM処理により3つのターゲット31(図3)を検出し無人飛行体3の絶対位置を認識する(ステップS404:キャリブレーション)。その後、無人飛行体3は総合制御部13の制御下で飛行し、情報記憶部13aに記憶されたウエイポイントP1~P(k-1)の位置情報及び飛行ルートF1~F(k-1)情報に基づいて、ウエイポイントP(k-1)まで自律的に飛行する(ステップS406)。ここで、k=3~mの場合には、無人飛行体3は、ウエイポイントP1~P(k-1)を順に通過しながらウエイポイントP(k-1)に到達する。 As shown in FIG. 6, from the state where the unmanned flying object 3 is installed at the starting point P0 (step S402 in FIG. 6), the integrated control unit 13 starts the drone 11 and makes the unmanned flying object 3 take off. Before or immediately after takeoff, the integrated control unit 13 of the unmanned air vehicle 3 detects three targets 31 (FIG. 3) by LiDAR-SLAM processing and recognizes the absolute position of the unmanned air vehicle 3 (step S404: calibration). After that, the unmanned flying object 3 flies under the control of the integrated control unit 13, and the positional information of the waypoints P1 to P(k-1) and the flight routes F1 to F(k-1) stored in the information storage unit 13a. Based on the information, it autonomously flies to the waypoint P(k-1) (step S406). Here, when k=3 to m, the unmanned air vehicle 3 reaches waypoint P(k-1) while passing waypoints P1 to P(k-1) in order.

この飛行中には、スキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13は、LiDAR-SLAM処理により、無人飛行体3の周囲のマッピングを行っている。総合制御部13の飛行制御に必要な無人飛行体3の現在位置情報は、LiDAR-SLAM処理と、ドローン11に備わったIMU(Inertial Measurement Unit、慣性計測装置)による推定処理と、を組み合わせた自己位置推定処理によってリアルタイムに認識される。 During this flight, the scanning device 15 continuously scans surrounding objects, and the integrated control unit 13 maps the surroundings of the unmanned air vehicle 3 by LiDAR-SLAM processing. The current position information of the unmanned flying object 3 required for the flight control of the integrated control unit 13 is obtained by combining LiDAR-SLAM processing and estimation processing by an IMU (Inertial Measurement Unit) provided in the drone 11. It is recognized in real time by the position estimation process.

また、飛行中には無人飛行体3の光学カメラ17による周囲の動画の撮影、ガスセンサ19によるガス成分の濃度計測、及び他のセンサ類21による他の環境情報の収集が継続的に実行される。そして、総合制御部13は、収集されたこれらの環境情報を無人飛行体3の現在位置情報に関連づけ、通信部13bを介してリアルタイムで探査支援端末5に継続的に送信する(ステップS407)。探査作業者は、探査支援端末5で受信されたこれらの各環境情報を分析することによりシールドトンネル101内の環境を知ることができる。例えば、光学カメラ17で撮影されたシールドトンネル101の内壁面の動画に基づいて、シールドトンネル101のセグメントの健全性を知ることができる。また例えば、ガスセンサ19で測定されたガス成分の濃度情報から、シールドトンネル101内における有毒ガスの有無等を知ることができる。 In addition, during flight, the optical camera 17 of the unmanned flying object 3 shoots a moving image of the surroundings, the gas sensor 19 measures the concentration of gas components, and the other sensors 21 collect other environmental information continuously. . Then, the integrated control unit 13 associates the collected environmental information with the current position information of the unmanned flying object 3, and continuously transmits it to the exploration support terminal 5 in real time via the communication unit 13b (step S407). The exploration operator can know the environment inside the shield tunnel 101 by analyzing each of these environmental information received by the exploration support terminal 5 . For example, based on a moving image of the inner wall surface of the shield tunnel 101 taken by the optical camera 17, the soundness of the segments of the shield tunnel 101 can be known. Further, for example, the presence or absence of toxic gas in the shield tunnel 101 can be known from the concentration information of gas components measured by the gas sensor 19 .

なお、上記のような光学カメラ17による周囲の動画の撮影、ガスセンサ19によるガス成分の濃度計測、及び他のセンサ類21による他の環境情報の収集(ステップS407)は、最終工程である第m工程のみで行われるようにしてもよい。このようにすれば、第1~第(m-1)工程においては、無人飛行体3に光学カメラ17、ガスセンサ19、及び他のセンサ類21を積載する必要がなく、無人飛行体3を軽量化して航続距離を伸ばすことができる。 It should be noted that the photographing of the moving image of the surroundings by the optical camera 17, the concentration measurement of the gas component by the gas sensor 19, and the collection of other environmental information by the other sensors 21 (step S407) as described above are the final steps of the m-th You may make it perform only by a process. In this way, in the first to (m-1)th processes, it is not necessary to load the unmanned flying object 3 with the optical camera 17, the gas sensor 19, and other sensors 21, and the unmanned flying object 3 can be made lightweight. It can be transformed to extend the cruising distance.

無人飛行体3の飛行中には、前述の通りスキャン装置15が継続的に周囲の物体をスキャンしており、総合制御部13はLiDAR-SLAM処理により周囲のマッピングを行っている。そして、無人飛行体3がウエイポイントP(k-1)に到達した時点で、当該ウエイポイントP(k-1)の周囲のマッピング情報が情報記憶部13aに記憶される。すなわちこの時点で、ウエイポイントP(k-1)よりも前方の領域である「領域Ak」のマッピング情報が情報記憶部13aに記憶される(ステップS408)。例えば、ウエイポイントP(k-1)よりも更に前方の約100mの領域が領域Akとなる。但し、例えばシールドトンネル101の屈曲部等においてスキャン装置15のレーザ光がウエイポイントP(k-1)の前方に十分に届かない場合には、領域Akは上記よりも狭くなる。 During the flight of the unmanned air vehicle 3, the scanning device 15 continuously scans surrounding objects as described above, and the integrated control unit 13 performs mapping of the surroundings by LiDAR-SLAM processing. Then, when the unmanned air vehicle 3 reaches the waypoint P(k-1), mapping information around the waypoint P(k-1) is stored in the information storage unit 13a. That is, at this time, the mapping information of the "area Ak", which is the area ahead of the waypoint P(k-1), is stored in the information storage unit 13a (step S408). For example, an area of about 100 m ahead of the waypoint P(k-1) is the area Ak. However, if the laser beam from the scanning device 15 does not sufficiently reach the front of the waypoint P(k-1), for example, at a curved portion of the shield tunnel 101, the area Ak becomes narrower than the above.

その後無人飛行体3は、総合制御部13の制御下で、情報記憶部13aに記憶されたウエイポイントP1~P(k-1)の位置情報及び飛行ルートF1~F(k-1)情報に基づいて、往路を逆順に辿る飛行ルートで、開始地点P0まで自律的に飛行し帰還する(ステップS409)。 After that, under the control of the integrated control unit 13, the unmanned air vehicle 3 uses the position information of the waypoints P1 to P(k-1) and the flight route F1 to F(k-1) information stored in the information storage unit 13a. Based on this, it autonomously flies to the starting point P0 and returns to the starting point P0 along the flight route that follows the forward route in reverse order (step S409).

なお、無人飛行体3の飛行中においては、安全飛行のために、次のような措置を実行するための処理プログラムも並行して実行されている。例えば、LiDAR-SLAM処理により無人飛行体3の移動方向前方に障害物が検出された場合には、当該障害物を自動的に回避して飛行する。この処理によれば、第(k-1)工程までには存在しなかった障害物が後発的に発生した場合にも対処可能である。あるいは、この障害物が回避不可能であり所定時間排除されない場合には、無人飛行体3は自動的に開始地点P0に帰還する。また、ドローン11のバッテリー切れが予想される場合(例えば、バッテリーの残容量が所定値未満になった場合)には、無人飛行体3は自動的に開始地点P0に帰還する、あるいは、その場で着陸する。 During the flight of the unmanned air vehicle 3, a processing program for executing the following measures is also executed in parallel for safe flight. For example, when an obstacle is detected in front of the unmanned air vehicle 3 in the movement direction by the LiDAR-SLAM processing, the unmanned air vehicle 3 automatically avoids the obstacle and flies. According to this process, it is possible to deal with the case where an obstacle that did not exist before the (k-1)th step occurs later. Alternatively, if the obstacle cannot be avoided and is not eliminated for a predetermined period of time, the unmanned air vehicle 3 automatically returns to the starting point P0. Further, when the battery of the drone 11 is expected to run out (for example, when the remaining battery capacity becomes less than a predetermined value), the unmanned flying object 3 automatically returns to the starting point P0, or to land.

また、無人飛行体3の周囲に粉塵、霧又は煙等が発生した場合には、LiDAR-SLAM処理の障害になる可能性があるので、この粉塵等が収束するまで無人飛行体3はホバリングを行う。あるいは、この粉塵等が所定時間収束しない場合には、無人飛行体3は自動的に開始地点P0に帰還する。また、非常時には、開始地点P0にいる探査作業者が、探査支援端末5の遠隔操作コントローラを操作し無人飛行体3を手動で遠隔操作することが可能である。 In addition, if dust, fog, or smoke is generated around the unmanned flying object 3, it may hinder the LiDAR-SLAM processing. conduct. Alternatively, if the dust or the like does not converge for a predetermined time, the unmanned flying object 3 automatically returns to the starting point P0. Also, in an emergency, an exploration operator at the starting point P0 can operate the remote control controller of the exploration support terminal 5 to manually remotely control the unmanned flying object 3 .

ウエイポイントP(k-1)から帰還した無人飛行体3が開始地点P0に着地し停止した後、探査作業者は、探査支援端末5を有線又は無線で通信部13bを介して無人飛行体3の総合制御部13に接続し、情報記憶部13aに記憶された領域Akのマッピング情報を探査支援端末5に読み出す(ステップS410)。そして、探査作業者は、第1工程と同様に、探査支援端末5上で飛行計画プログラムを実行し領域Ak内にウエイポイントPkを仮に設定する(ステップS412)。 After the unmanned flying object 3 returning from the waypoint P(k−1) lands and stops at the starting point P0, the exploration worker connects the exploration support terminal 5 to the unmanned flying object 3 via the communication unit 13b by wire or wirelessly. is connected to the total control unit 13, and the mapping information of the area Ak stored in the information storage unit 13a is read out to the exploration support terminal 5 (step S410). Then, as in the first step, the exploration operator executes the flight plan program on the exploration support terminal 5 to provisionally set the waypoint Pk within the area Ak (step S412).

続いて探査作業者は、第1工程と同様に探査支援端末5上でフライトシミュレーションを実行する(ステップS414)。このフライトシミュレーションにより、必要に応じてウエイポイントPkの調整、及びウエイポイントP(k-1)からウエイポイントPkまでの飛行ルートFkの調整が行われ、開始地点P0からの安全な往復飛行が可能なウエイポイントPk及び飛行ルートFkが確定される。確定されたウエイポイントPkの位置情報及び飛行ルートFkの情報は、探査支援端末5に記憶されるとともに、無人飛行体3の総合制御部13に送信され情報記憶部13aに記憶される(ステップS416)。以上で第k工程が完了する。 Subsequently, the exploration operator executes a flight simulation on the exploration support terminal 5 as in the first step (step S414). Through this flight simulation, the waypoint Pk is adjusted as necessary, and the flight route Fk from waypoint P(k-1) to waypoint Pk is adjusted, enabling safe round-trip flight from the starting point P0. waypoints Pk and flight routes Fk are determined. The determined position information of the waypoint Pk and the information of the flight route Fk are stored in the exploration support terminal 5, transmitted to the integrated control unit 13 of the unmanned air vehicle 3, and stored in the information storage unit 13a (step S416). ). This completes the k-th step.

第k工程が完了した後、この第k工程が最終工程の第m工程であれば(ステップS418)シールドトンネル101内の探査作業を終了し、未だ第m工程に達していない場合にはkの値をカウントアップして(ステップS420)、処理をステップS402に戻す。なお、最終工程の第m工程においては、次回のウエイポイントPmの設定や飛行ルートFmの設定を行うためのステップS410~S416の処理が省略されてもよい。また、最終工程の第m工程においては、無人飛行体3がウエイポイントP(m-1)に到達した際に情報記憶部13aが領域Amのマッピング情報を記憶する処理(ステップS408の一部)を省略してもよい。 After the k-th process is completed, if the k-th process is the m-th process of the final process (step S418), the exploration work inside the shield tunnel 101 is terminated, and if the m-th process has not yet been reached, the k-th process is completed. The value is counted up (step S420) and the process returns to step S402. In the m-th process of the final process, steps S410 to S416 for setting the next waypoint Pm and setting the flight route Fm may be omitted. Further, in the m-th process of the final process, when the unmanned air vehicle 3 reaches the waypoint P(m−1), the information storage unit 13a stores the mapping information of the area Am (part of step S408). may be omitted.

続いて、以上説明したような無人探査システム1によるシールドトンネル101の探査方法による作用効果について説明する。 Next, the effects of the shield tunnel 101 exploration method by the unmanned exploration system 1 as described above will be described.

上記探査方法によれば、無人飛行体3が移動可能な領域A1,A2,…,Amを移動方向前方に向かって例えば30~80m程度ずつ徐々に追加していき、無人飛行体3による探査領域を徐々にシールドトンネル101の切羽側に向かって拡げていくことができる。このとき、第k工程での無人飛行体3は、第(k-1)工程までに設定された飛行ルートF1~F(k-1)に基づいて、ウエイポイントP(k-1)まで飛行する。特に、k=3~mの場合には、無人飛行体3は、第(k-1)工程までに設定されたウエイポイントP1~P(k-1)を順に通過するように飛行してウエイポイントP(k-1)に到達する。ここで、上記のウエイポイントP1~P(k-1)及び飛行ルートF1~F(k-1)は、第(k-1)工程までのフライトシミュレーションにより無人飛行体3が安全に往復飛行可能であることが確認されたものであるので、無人飛行体3は開始地点P0からウエイポイントP(k-1)まで安全に往復飛行することができる。 According to the above exploration method, areas A1, A2, . can be gradually expanded toward the face side of the shield tunnel 101. At this time, the unmanned flying object 3 in the k-th process flies to the waypoint P(k-1) based on the flight routes F1 to F(k-1) set up to the (k-1)th process. do. In particular, when k=3 to m, the unmanned air vehicle 3 flies through the waypoints P1 to P(k-1) set up to the (k-1) step in order. Point P(k-1) is reached. Here, the waypoints P1 to P(k-1) and the flight routes F1 to F(k-1) described above allow the unmanned air vehicle 3 to make a safe round-trip flight through the flight simulation up to the step (k-1). Therefore, the unmanned air vehicle 3 can safely fly back and forth from the starting point P0 to the waypoint P(k-1).

また、総合制御部13の飛行制御に必要な無人飛行体3の現在位置情報は、LiDAR-SLAM処理と、ドローン11に備わったIMUによる推定処理と、を組み合わせた自己位置推定処理によってリアルタイムで認識される。従って、無人飛行体3の飛行制御のためにGNSS信号は不要であり、また、シールドトンネル101内に無人飛行体3が読み取り可能な標識や、無人飛行体3との通信を行う機器等を事前に設置しておくこと等も不要であり、無人飛行体3の自律的な飛行が可能である。 In addition, the current position information of the unmanned flying object 3 required for the flight control of the integrated control unit 13 is recognized in real time by self-position estimation processing that combines LiDAR-SLAM processing and estimation processing by the IMU provided in the drone 11. be done. Therefore, GNSS signals are not necessary for flight control of the unmanned flying object 3. In addition, signs that can be read by the unmanned flying object 3 and devices for communicating with the unmanned flying object 3 are placed in the shield tunnel 101 in advance. The unmanned flying object 3 can fly autonomously.

従って、上記探査方法によれば、例えばシールドトンネル101のようにGNSS信号が使用できず且つ事前に人が立ち入ることができない空間を対象とする探査が好適に実行可能である。また、無人飛行体3のスキャン装置15は、レーザ光を用いるLiDAR装置であるので、上記探査方法によれば、例えばシールドトンネル101のような暗所での探査が好適に実行可能である。 Therefore, according to the exploration method described above, it is possible to suitably execute exploration targeting a space such as the shield tunnel 101 where GNSS signals cannot be used and where people cannot enter in advance. Further, since the scanning device 15 of the unmanned flying object 3 is a LiDAR device that uses laser light, according to the above exploration method, for example, exploration in a dark place such as the shield tunnel 101 can be suitably executed.

また、開始地点P0近傍に絶対座標が既知である少なくとも3つのターゲット31が設置されており、無人飛行体3の総合制御部13は、各工程(第1~第m工程)の最初に無人飛行体3の絶対位置のキャリブレーションを行うことができる。従って、無人探査システム1では、各工程(第1~第m工程)におけるウエイポイントP1~Pmの位置情報、領域A1~Amのマッピング情報、飛行ルートF1~Fmの情報、無人飛行体3の現在位置情報等を、一貫して絶対位置情報として認識することができる。 At least three targets 31 whose absolute coordinates are known are installed near the starting point P0, and the integrated control unit 13 of the unmanned flying object 3 controls the unmanned flight A calibration of the absolute position of the body 3 can be performed. Therefore, in the unmanned exploration system 1, the position information of the waypoints P1 to Pm, the mapping information of the areas A1 to Am, the information of the flight routes F1 to Fm, the current status of the unmanned flying object 3 in each process (first to m-th processes). Position information and the like can be consistently recognized as absolute position information.

仮に、上記のような各種の位置情報が絶対位置情報ではなく無人飛行体3との相対位置情報として認識されている場合には、各工程(第1~第m工程)の開始時に、無人飛行体3を同じ位置及び同じ姿勢で正確に開始地点P0に設置する必要がある。すなわちこの場合、各工程の開始時の無人飛行体3の設置位置及び設置姿勢を基準とした相対位置としてウエイポイントP1~Pmの位置等が認識されるので、開始地点P0における無人飛行体3の設置位置及び設置姿勢に誤差があれば、誤差に応じてその後の飛行ルートがズレてしまう。特に無人飛行体3の設置姿勢の誤差は、飛行ルートが長いほど大きなズレの原因になり得る。これに対して、本実施形態の探査方法によれば、ウエイポイントP1~Pmの位置等が無人飛行体3の位置及び姿勢とは無関係に絶対位置情報として認識されるので、無人飛行体3を各工程(第1~第m工程)の開始時に高い位置精度で設置するといったことは不要であり、その結果、作業負荷が低減される。 If the various positional information as described above is recognized not as absolute positional information but as relative positional information with respect to the unmanned flying object 3, the unmanned flight The body 3 should be placed exactly at the starting point P0 in the same position and posture. That is, in this case, since the positions of the waypoints P1 to Pm are recognized as relative positions with reference to the installation position and installation posture of the unmanned flying object 3 at the start of each process, the position of the unmanned flying object 3 at the start point P0 is recognized. If there is an error in the installation position and installation attitude, the subsequent flight route will be shifted according to the error. In particular, an error in the installation attitude of the unmanned air vehicle 3 can cause a large deviation as the flight route becomes longer. In contrast, according to the exploration method of the present embodiment, the positions of the waypoints P1 to Pm are recognized as absolute position information regardless of the position and attitude of the unmanned flying object 3. It is not necessary to set with high positional accuracy at the start of each process (first to m-th processes), and as a result, the workload is reduced.

本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。また、上述した実施形態に記載されている技術的事項を利用して、実施例の変形例を構成することも可能である。各実施形態等の構成を適宜組み合わせて使用してもよい。 The present invention can be embodied in various forms with various modifications and improvements based on the knowledge of those skilled in the art, including the embodiment described above. Moreover, it is also possible to configure modifications of the embodiments by using the technical matters described in the above-described embodiments. You may use it, combining the structure of each embodiment etc. suitably.

例えば、第k工程(但しk=3~n)で無人飛行体3がウエイポイントP1~P(k-1)を順に通過して飛行することは必須ではない。例えば、開始地点P0からウエイポイントP1~P(k-2)を必ずしも通過せずにウエイポイントP(k-1)まで到達する飛行ルートで無人飛行体3が飛行してもよい。この場合、上記のような飛行ルートが第(k-1)工程で設定され総合制御部13に記憶されてもよい。 For example, it is not essential for the unmanned air vehicle 3 to fly through the waypoints P1 to P(k-1) in order in the k-th step (where k=3 to n). For example, the unmanned air vehicle 3 may fly along a flight route from the starting point P0 to the waypoint P(k-1) without necessarily passing through the waypoints P1 to P(k-2). In this case, the flight route as described above may be set in the (k−1) step and stored in the general control unit 13 .

また、実施形態では、無人飛行体3が開始地点P0に帰還した後、総合制御部13から探査支援端末5にマッピング情報が読み出され、探査支援端末5上でウエイポイント設定、飛行ルート設定、フライトシミュレーションが行われている。しかしながら、この手順は必須ではなく、例えば、探査作業者が、総合制御部13に操作入力装置(例えばキーボード)や表示装置(例えばディスプレイモニタ)等の必要な機器を接続するなどして、ウエイポイント設定、飛行ルート設定、及びフライトシミュレーションを行うための飛行計画プログラムが総合制御部13上で直接実行されてもよい。 Further, in the embodiment, after the unmanned flying object 3 returns to the starting point P0, the mapping information is read from the general control unit 13 to the exploration support terminal 5, and the exploration support terminal 5 sets waypoints, sets flight routes, A flight simulation is in progress. However, this procedure is not essential. A flight plan program for setting, flight route setting, and flight simulation may be directly executed on the integrated control unit 13 .

また、実施形態の総合制御部13は、無人飛行体3のSLAM処理として、3D LiDAR装置(スキャン装置15)を利用したLiDAR-SLAM処理を行っているが、これに代えて、例えば光学カメラ17の映像を利用したVisual-SLAM処理を行うものであってもよい。また、スキャン装置15のスキャンは水平面から上下方向に±15°のスキャン範囲で行われるが、このスキャン範囲全体を水平面に対して傾斜させてもよい。例えば、傾斜したトンネルを飛行する際にトンネルの傾斜に対応させてスキャン範囲の傾斜を調整すれば、ドローン11を傾斜姿勢で飛行させる手法よりも容易に、トンネルの内壁面の検出感度を高めることができる。 Further, the integrated control unit 13 of the embodiment performs LiDAR-SLAM processing using a 3D LiDAR device (scanning device 15) as the SLAM processing of the unmanned air vehicle 3. Instead of this, for example, the optical camera 17 Visual-SLAM processing using the video may be performed. Further, the scanning of the scanning device 15 is performed within a scanning range of ±15° in the vertical direction from the horizontal plane, but the entire scanning range may be tilted with respect to the horizontal plane. For example, when flying through an inclined tunnel, if the inclination of the scan range is adjusted according to the inclination of the tunnel, the detection sensitivity of the inner wall surface of the tunnel can be increased more easily than the technique of flying the drone 11 in an inclined posture. can be done.

また、本実施形態におけるドローン11はモータ駆動であるが、これに代えて、ガソリンエンジンのドローンやハイブリッドエンジンのドローンが採用されてもよい。但し、モータ駆動のドローン11によれば、ガソリンエンジンやハイブリッドエンジンに比較して振動が低減される点で好ましい。また、無人飛行体3の例えば着地用脚部23の下端に浮体を設けることで、無人飛行体3を水面上に着水可能としてもよい。 Further, the drone 11 in the present embodiment is driven by a motor, but instead of this, a gasoline engine drone or a hybrid engine drone may be employed. However, the motor-driven drone 11 is preferable in that vibration is reduced compared to a gasoline engine or a hybrid engine. Alternatively, the unmanned flying object 3 may land on the water surface by providing a floating body at the lower end of the landing leg 23 of the unmanned flying object 3, for example.

また、本発明の探査方法及び移動方法においては、対象空間を飛行する無人飛行体3に代えて、地上を移動する無人移動体が用いられてもよい。例えば無人移動体としては、ドローン11に代えて履帯式の走行装置や四足歩行ロボットに前述の各種積載機器(総合制御部13、スキャン装置15等)を積載したものであってもよい。但し、無人飛行体3は、履帯式走行装置や四足歩行ロボットに比較して、対象空間の底面の状態に関わらず移動可能である点で好ましい。 Further, in the exploration method and the movement method of the present invention, an unmanned mobile body that moves on the ground may be used instead of the unmanned flying body 3 that flies in the target space. For example, instead of the drone 11, the unmanned mobile body may be a crawler-type traveling device or a quadrupedal robot loaded with the aforementioned various loading devices (integrated control unit 13, scanning device 15, etc.). However, the unmanned flying object 3 is preferable in that it can move regardless of the state of the bottom surface of the target space, compared to a crawler-type traveling device or a quadrupedal robot.

また、本発明の探査方法及び移動方法は、シールドトンネル101の環境情報収集のみならず種々の用途に適用することができる。例えば、本発明の探査方法及び移動方法は、山岳トンネルや地下トンネルの自動点検や危険箇所(有毒ガスや崩落危険箇所が存在する箇所)の探索調査、共同構等の点検、硫化水素の存在の可能性や酸欠の可能性がある船のバラストタンク内の点検、建設現場建屋や地下構造物の巡回点検、GNSS信号が受信困難な山間部の樹林帯、事故・災害調査、トンネル切羽の3次元形状の測定、などにも適用することができる。 Further, the exploration method and movement method of the present invention can be applied not only to collecting environmental information of the shield tunnel 101 but also to various uses. For example, the exploration method and movement method of the present invention can be used for automatic inspection of mountain tunnels and underground tunnels, investigation of dangerous places (places where toxic gas and danger of collapse exist), inspection of joint structures, etc., detection of the presence of hydrogen sulfide. Inspection of ballast tanks of ships where there is a possibility of oxygen deficiency, patrol inspection of construction site buildings and underground structures, forest areas in mountainous areas where it is difficult to receive GNSS signals, investigation of accidents and disasters, and tunnel faces. It can also be applied to measurement of dimensional shape, and the like.

3…無人飛行体(無人移動体)、15…スキャン装置、17…光学カメラ(センサ類)、19…ガスセンサ(センサ類)、21…他のセンサ類、23…着地用脚部、27…梁部、31…ターゲット、Ak,A1~Am…領域、P0…開始地点、Pk,P1~Pm…ウエイポイント、Fk,F1~Fm…飛行ルート、101…シールドトンネル(対象空間)。 3... unmanned flying object (unmanned moving object), 15... scanning device, 17... optical camera (sensors), 19... gas sensor (sensors), 21... other sensors, 23... landing leg, 27... beam Part, 31... Target, Ak, A1 to Am... Area, P0... Starting point, Pk, P1 to Pm... Waypoint, Fk, F1 to Fm... Flight route, 101... Shield tunnel (target space).

Claims (7)

所定の開始地点から移動方向前方に広がる所定の対象空間を無人移動体に移動させるための無人移動体の移動方法であって、
前記対象空間内の領域の一部ずつのマッピングが行われる第1工程、第2工程、第3工程、…を備え、
第k工程(但しk=2,3,…)では、
前記無人移動体が前記開始地点に設置された状態から、前記無人移動体が第(k-1)工程で記憶した第(k-1)ウエイポイントに移動しSLAM処理によって前記第(k-1)ウエイポイントの前方の第k領域のマッピングを行って前記開始地点に戻り、マッピングされた前記第k領域内に設定される第kウエイポイントが前記無人移動体に記憶される、無人移動体の移動方法。
A method for moving an unmanned mobile body for moving the unmanned mobile body in a predetermined target space extending forward in a moving direction from a predetermined starting point, comprising:
A first step, a second step, a third step, .
In the k-th step (where k = 2, 3, ...),
From the state in which the unmanned mobile body is installed at the start point, the unmanned mobile body moves to the (k-1)th waypoint stored in the (k-1)th step, and the SLAM process performs the (k-1th) waypoint. ) of an unmanned mobile body, wherein a k-th area ahead of a waypoint is mapped to return to the starting point, and the k-th waypoint set in the mapped k-th area is stored in the unmanned mobile body; Moving method.
前記無人移動体の前記SLAM処理により検出可能である物理的なターゲットが前記開始地点の近傍に少なくとも3つ固定されており、
前記第k工程(但しk=1,2,…)では、
前記無人移動体は、前記開始地点近傍において前記SLAM処理で検知した前記物理的ターゲットの位置に基づいて自機の位置を認識する、請求項1に記載の無人移動体の移動方法。
At least three physical targets detectable by the SLAM processing of the unmanned mobile body are fixed near the starting point;
In the k-th step (where k = 1, 2, ...),
2. The method of moving an unmanned mobile body according to claim 1, wherein said unmanned mobile body recognizes its own position based on the position of said physical target detected by said SLAM processing in the vicinity of said start point.
前記第k工程(但しk=1,2,…)では、
前記開始地点に戻った前記無人移動体が記憶している第k領域のマッピング情報に基づいて前記無人移動体の移動シミュレーションが実行され、前記移動シミュレーションにより前記無人移動体が前記開始地点から往復移動可能であると判断されたポイントが前記第kウエイポイントとして設定される、請求項1又は2に記載の無人移動体の移動方法。
In the k-th step (where k = 1, 2, ...),
A movement simulation of the unmanned mobile body is executed based on the mapping information of the k-th area stored by the unmanned mobile body that has returned to the start point, and the unmanned mobile body moves back and forth from the start point by the movement simulation. 3. The method of moving an unmanned vehicle according to claim 1, wherein the point determined to be possible is set as said k-th way point.
前記第k工程(但しk=3,4,…)では、
前記無人移動体は、前記開始地点から前記第1~第(k-1)ウエイポイントを順に通過する移動経路で前記開始地点から前記第(k-1)ウエイポイントまで移動する、請求項1~3の何れか1項に記載の無人移動体の移動方法。
In the k-th step (where k = 3, 4, ...),
1. The unmanned mobile body moves from the starting point to the (k-1)th waypoint on a movement route passing through the first to (k-1)th waypoints from the starting point in order. 4. The method for moving an unmanned vehicle according to any one of 3.
前記無人移動体は、前記対象空間内を飛行可能であり前記SLAM処理用のスキャン装置を備える無人飛行体である、請求項1~4の何れか1項に記載の無人移動体の移動方法。 5. The method for moving an unmanned mobile body according to claim 1, wherein said unmanned mobile body is an unmanned flying body capable of flying in said target space and equipped with said scanning device for SLAM processing. 前記無人飛行体は、動力源を有する本体と、前記本体から下方に延びる一対の着地用脚部と、前記本体の下方で前記着地用脚部同士の間に架け渡される梁部と、を備え、前記スキャン装置は前記梁部に設置されている、請求項5に記載の無人移動体の移動方法。 The unmanned air vehicle includes a main body having a power source, a pair of landing legs extending downward from the main body, and a beam extending between the landing legs below the main body. 6. The method of moving an unmanned vehicle according to claim 5, wherein said scanning device is installed on said beam. 前記対象空間内の環境情報を取得するセンサ類を備える前記無人移動体が請求項1~6の何れか1項に記載の無人移動体の移動方法により前記対象空間内で移動し、
前記無人移動体による前記対象空間内の移動中に前記センサ類で得られる前記環境情報が収集される、探査方法。
The unmanned mobile body equipped with sensors for acquiring environmental information in the target space moves in the target space by the unmanned mobile body moving method according to any one of claims 1 to 6,
An exploration method, wherein the environment information obtained by the sensors is collected while the unmanned mobile body is moving in the target space.
JP2021154417A 2021-09-22 2021-09-22 Method for moving and searching for unmanned vehicle Active JP7554726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021154417A JP7554726B2 (en) 2021-09-22 2021-09-22 Method for moving and searching for unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021154417A JP7554726B2 (en) 2021-09-22 2021-09-22 Method for moving and searching for unmanned vehicle

Publications (2)

Publication Number Publication Date
JP2023045829A true JP2023045829A (en) 2023-04-03
JP7554726B2 JP7554726B2 (en) 2024-09-20

Family

ID=85777081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021154417A Active JP7554726B2 (en) 2021-09-22 2021-09-22 Method for moving and searching for unmanned vehicle

Country Status (1)

Country Link
JP (1) JP7554726B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping

Also Published As

Publication number Publication date
JP7554726B2 (en) 2024-09-20

Similar Documents

Publication Publication Date Title
US12007761B2 (en) Unmanned aerial vehicle inspection system
US11794890B2 (en) Unmanned aerial vehicle inspection system
US9513635B1 (en) Unmanned aerial vehicle inspection system
US20210247764A1 (en) Multi-sensor environmental mapping
CN102417037B (en) automatic takeoff and landing system
CN202600150U (en) Intelligent low-altitude remote sensing surveying and mapping system
EP3855270A1 (en) Flight path determination
US10613429B1 (en) Unmanned aerial vehicle with attached apparatus for X-ray analysis of power lines
KR100556103B1 (en) Method for aerial photogrammetry using computer controlled navigation and photographing system
EP1193168A2 (en) Unmanned mobile device
US20200378927A1 (en) Inspection system, mobile robot device, and inspection method
JP2019031164A (en) Taking-off/landing device, control method of taking-off/landing device, and program
US10417755B1 (en) Drone-based inspection of wireless communication towers and corresponding methods, systems, and apparatuses
ES2978374T3 (en) Flying object control system, control device and marker of the same
CN106501829A (en) A kind of Navigation of Pilotless Aircraft method and apparatus
CN112335190A (en) Radio link coverage map and impairment system and method
JP2019016197A (en) Moving entity induction system
CN117130392B (en) Unmanned aerial vehicle for indoor positioning navigation based on BIM data and control method
Hennage et al. Fully autonomous drone for underground use
JP7554726B2 (en) Method for moving and searching for unmanned vehicle
CN202600151U (en) Light-duty airborne three dimensional laser radar system
JP2020135327A (en) Flight body system, flight body, position measuring method and program
JP7343046B2 (en) Takeoff and landing facilities, aircraft systems, and landing control methods
US20220230550A1 (en) 3d localization and mapping systems and methods
WO2023228283A1 (en) Information processing system, movable body, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240909

R150 Certificate of patent or registration of utility model

Ref document number: 7554726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150