JP2023033991A - Autonomous flight survey system and method by unmanned flying body - Google Patents
Autonomous flight survey system and method by unmanned flying body Download PDFInfo
- Publication number
- JP2023033991A JP2023033991A JP2021140012A JP2021140012A JP2023033991A JP 2023033991 A JP2023033991 A JP 2023033991A JP 2021140012 A JP2021140012 A JP 2021140012A JP 2021140012 A JP2021140012 A JP 2021140012A JP 2023033991 A JP2023033991 A JP 2023033991A
- Authority
- JP
- Japan
- Prior art keywords
- photographing
- target area
- camera
- autonomous flight
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は無人飛行体の自律飛行による測量技術に関する。 The present invention relates to a surveying technique by autonomous flight of an unmanned air vehicle.
ドローンと呼ばれる無人飛行体(UAV:Unmanned Aerial Vehicle)は、写真測量用カメラやスキャナを搭載することで工事現場や人が入り込めない災害現場等を上空から測量あるいは監視することができる。特に、無人飛行体にGPS(Global Positioning System)やGNSS(Global Navigation Satellite System)機能を搭載することで無人飛行体の正確な位置測定ができ、人手による操縦が最小限必要な自律飛行、さらに完全な自律飛行が可能となりつつある(特許文献1および2参照)。
Unmanned Aerial Vehicles (UAVs) called drones are equipped with photogrammetry cameras and scanners, so that construction sites, disaster sites, and the like, which are inaccessible to humans, can be surveyed or monitored from the air. In particular, by equipping the unmanned aircraft with GPS (Global Positioning System) and GNSS (Global Navigation Satellite System) functions, it is possible to accurately measure the position of the unmanned aircraft. autonomous flight is becoming possible (see
しかしながら、無人飛行体を自律飛行させて測量を行うには、事前に測量対象領域に標定点を設置して各標定点の位置計測を行う必要があり、事前準備に多くの時間を要する。特に自律飛行により全自動測量を実現にするためには事前準備が効率化のボトルネックとなる。 However, in order to fly an unmanned aerial vehicle autonomously for surveying, it is necessary to set control points in the survey target area in advance and measure the position of each control point, which requires a lot of preparation time. In particular, in order to realize fully automatic surveying by autonomous flight, advance preparation becomes a bottleneck in efficiency.
本発明は、このような事情に鑑みなされたものであり、その目的は、事前準備に要する時間を短縮し自律飛行測量を効率化できる無人飛行体による自律飛行測量システムおよび方法を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and its object is to provide an autonomous flight survey system and method using an unmanned flying object that can shorten the time required for advance preparation and improve the efficiency of autonomous flight survey. be.
上述の目的を達成するため、本発明の一態様による自律飛行測量システムは、自律的に撮影対象領域の上空を飛行する無人飛行体と、前記無人飛行体により取得された画像データを処理する情報処理装置と、からなる自律飛行測量システムであって、前記無人飛行体が、前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラと、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影するように制御する制御部と、を有し、前記情報処理装置が前記カメラにより撮影された複数の画像に基づいて前記撮影対象領域の地形データを算出する、ことを特徴とする。
本発明の一態様によれば、前記所定角度は10°以上30°以下とすることが望ましい。
本発明の一態様によれば、前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、前記情報処理装置が、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することができる。
本発明の一態様によれば、前記情報処理装置が、前記撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することができる。
本発明の一態様によれば、1つの画像から抽出される特徴点の数を所定数以下に制限することが望ましい。
本発明の一態様による自律飛行測量方法は、自律的に撮影対象領域の上空を飛行する無人飛行体による自律飛行測量方法であって、前記無人飛行体が前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラを有し、前記カメラの撮影方向を設定して前記カメラにより前記測量対象領域を含む画像を複数枚撮影する撮影工程と、前記撮影工程で撮影された複数の前記画像に基づいて、前記測量対象領域の地形データを算出する地形算出工程と、を有し、前記撮影工程において、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影することを特徴とする。
本発明の一態様によれば、前記所定角度は10°以上30°以下とすることが望ましい。
本発明の一態様によれば、前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、前記地形算出工程において、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することができる。
本発明の一態様によれば、前記地形算出工程において、前記撮影工程で撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することができる。
本発明の一態様によれば、1つの画像から抽出される特徴点の数を所定数以下に制限することが望ましい。
To achieve the above object, an autonomous flight survey system according to one aspect of the present invention includes an unmanned flying object that autonomously flies over an imaging target area, information for processing image data acquired by the unmanned flying object, a processing device, wherein the unmanned flying object has a camera capable of photographing the photographing target area from a vertical direction or from a photographing direction tilted by a desired angle; and a photographing direction of the camera vertically downward. a control unit configured to capture a plurality of images of the target area while being tilted by a predetermined angle from different directions, wherein the information processing device captures the plurality of images captured by the camera; and calculating terrain data of the imaging target area based on the above.
According to one aspect of the present invention, it is desirable that the predetermined angle is 10° or more and 30° or less.
According to one aspect of the present invention, a plurality of control points are arranged in advance at predetermined intervals in the imaging target area, each control point is equipped with a positioning function, and the information processing device obtains the position information of the control points. and the plurality of images captured by the camera, topography data of the imaging target area can be calculated.
According to one aspect of the present invention, the information processing device reduces the image size of each of the plurality of captured images, extracts a plurality of feature points from each of the reduced image sizes, The terrain data can be calculated from the plurality of feature points.
According to one aspect of the present invention, it is desirable to limit the number of feature points extracted from one image to a predetermined number or less.
An autonomous flight survey method according to one aspect of the present invention is an autonomous flight survey method using an unmanned flying object that autonomously flies over an imaging target region, wherein the unmanned flying object moves the imaging target region vertically or at a desired angle. a photographing step of setting the photographing direction of the camera and photographing a plurality of images including the survey target area by the camera; and a terrain calculation step of calculating terrain data of the survey target area based on the image of , wherein in the photographing step, the photographing direction of the camera is tilted by a predetermined angle from a different direction with respect to the vertical downward direction. and a plurality of images of the imaging target area.
According to one aspect of the present invention, it is desirable that the predetermined angle is 10° or more and 30° or less.
According to one aspect of the present invention, a plurality of control points are arranged in advance at predetermined intervals in the imaging target area, each control point is equipped with a positioning function, and in the terrain calculation step, the position information of the control points is and the plurality of images captured by the camera, topography data of the imaging target area can be calculated.
According to one aspect of the present invention, in the terrain calculation step, the image size of each of the plurality of images captured in the photographing step is reduced, and a plurality of feature points are calculated from each of the reduced image sizes. The terrain data can be calculated from the plurality of feature points.
According to one aspect of the present invention, it is desirable to limit the number of feature points extracted from one image to a predetermined number or less.
本発明によれば、鉛直下方向に対して所定角度傾けた斜め撮影により奥行きが生じるので、標定点の設定なしに十分な精度の測量を行うことができ、事前準備に要する時間を短縮し自律飛行測量を効率化できる。特に所定角度を10°以上30°以下とすることで測量精度を向上させることができる。
さらに、測位機能を搭載した複数の標定点を配置することで事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。
また撮影された画像のデータサイズを縮小し、特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。
According to the present invention, since depth is created by oblique photography at a predetermined angle with respect to the vertical downward direction, it is possible to perform surveying with sufficient accuracy without setting control points, shorten the time required for advance preparation, and autonomously perform surveying. Flight survey can be made more efficient. In particular, by setting the predetermined angle to 10° or more and 30° or less, the survey accuracy can be improved.
Furthermore, by arranging multiple ground control points equipped with positioning functions, it is possible to simplify and shorten the series of tasks from preparation to data analysis.
Also, by reducing the data size of the captured image and limiting the number of feature points, the time required for data analysis can be greatly shortened.
以下に添付図面を参照して、本発明による自律飛行測量システムの好適な実施の形態を詳細に説明する。 Preferred embodiments of the autonomous flight survey system according to the present invention will be described in detail below with reference to the accompanying drawings.
1.自律飛行測量システム
図1に例示するように、本発明の一実施形態による自律飛行測量システムは、撮影用のカメラを搭載し自律飛行可能な無人飛行体10と無人飛行体10の発着地点となる基地11とからなる。無人飛行体10は、後述するように予め飛行コースおよび撮影対象領域Aが設定されているものとする。基地11を離陸した無人飛行体10は撮影対象領域A(たとえば切盛土工事現場15)の上空を所定のコースで飛行して撮影対象領域Aの撮影を行い、撮影データを保持して基地11に帰還する。
1. Autonomous Flight Survey System As illustrated in FIG. 1, an autonomous flight survey system according to an embodiment of the present invention includes an unmanned
基地11は、特に限定されないが、離発着可能な開閉式ハッチを有する格納庫である。たとえば開閉式ドーム12aおよび12bがベース13上に矢印C方向に移動可能に設置され、ベース13上には離発着ポート14が設けられている。望ましくは離発着ポート14に着陸時の無人飛行体10のバッテリを充電する設備が設けられる。無人飛行体10は、開閉式ドーム12aおよび12bが開いた状態で離発着し、着陸後に開閉式ドーム12aおよび12bが閉じて格納される。
The base 11 is not particularly limited, but is a hangar having an opening and closing type hatch that can take off and land. For example,
2.無人飛行体
図2に例示するように、無人飛行体10は筐体100の周辺部の所定位置に複数の飛行用モータMが設けられ、各モータMの回転軸にプロペラPrが接続されている。無人飛行体10は、後述するように、遠隔操作による飛行または自律飛行の少なくとも一方が可能である。
2. Unmanned flying object As shown in FIG. 2, an unmanned
無人飛行体10の筐体100の底面には、可視光カメラ101が街道可能に支持部材102に連結され、また3本以上の脚部103が固定されている。可視光カメラ101は通常のカラー撮影用のRGBカメラを用いることができ、動画像あるいは静止画像を撮影可能である。
A
可視光カメラ101は、無人飛行体10の飛行中、その撮影方向を地表に向け、地表を撮影することができる。また、可視光カメラ101は首振り機構を備え、撮影方向を任意に変更することが可能である。たとえば可視光カメラ101は撮影方向を無人飛行体10の直下(鉛直方向)あるいは所望角度傾斜した斜め方向に設定可能である。首振り機構としては種々の機構を採用でき、たとえばサーボモータの回転により可視光カメラ101の撮影方向を変更することができる。
The
図3に例示するように、空撮用のカメラとして、図2のような可視光カメラ101だけでなく、赤外線(IR)カメラを設けてもよい。図3に例示する無人飛行体10aは、可視光カメラ101と赤外線(IR)カメラ101aとを一体化したカメラ部111を有し、必要に応じて可視光カメラ101と赤外線カメラ101aとを切り替えたり、あるいは両方を使用したりすることができる。また可視光カメラ101と照明光源104とを組み合わせて夜間写真測量に使用することもできる。照明光源104は支持部材105を通して筐体100の底面に設置されてもよい。照明光源104は後述する地表を照明するための光源であり、いわゆるスポットライトあるいはサーチライトを用いるこができる。これら以外は図2の無人飛行体10と同様の構成を有するので、同じ部材には同じ参照番号を付して説明は省略する。
As illustrated in FIG. 3, an infrared (IR) camera may be provided as an aerial camera in addition to the
カメラ部111および照明光源104は可視光カメラ101と同様に首振り機構を備え、撮影/照明方向を任意に変更することが可能である。カメラ部111のIRカメラ101aは撮影領域Aiにおける地表の温度分布を画像として撮像することができ、夜間であっても地形を把握することができる。たとえば可視光カメラ101と赤外線カメラ101aの両方の撮影画像を用いて災害現場の測量を行うこともできる。赤外線カメラ101aは温度分布を可視化するので、たとえば生存者の存在を検出することが可能となる。
The
図4に例示するように、無人飛行体10は上述した可視光カメラ101を備え、さらに無人飛行体10の筐体100内には、無人飛行体10の各種機能を実現するプロセッサ200、飛行制御部201、モータ制御部202、無線通信部203、RTK(Real Time Kinematic)-GNSS(Global Navigation Satellite System/全球測位衛星システム)ユニット204、メモリ205、インタフェース206および撮影方向制御部207が設けられている。
As exemplified in FIG. 4, the unmanned flying
プロセッサ200は図示しないメモリに格納されたプログラムを実行することで以下に述べる種々の機能を実現することができる。プロセッサ200は、可視光カメラ101の撮影タイミング、撮影方向、その他撮影パラメータ(シャッター速度、ISO感度、絞り、フォーカスなど)を制御する。例えば、後述するRTK-GNSSユニット204で算出した無人飛行体10の現在位置が予め定められた撮影位置に達した場合、プロセッサ200は撮影方向制御部207を通し可視光カメラ101が予め定められた撮影方向を向くように制御し、可視光カメラ101が予め定められた撮影パラメータで撮影を行うよう制御する。撮影方向制御部207は、たとえば上述した首振り機構のサーボモータの回転を制御することで可視光カメラ101の撮影方向を任意の方向に設定することができる。なお、プロセッサ200、飛行制御部201、モータ制御部202および撮影方向制御部207は無人飛行体10の制御部として機能し、プロセッサ200が図示しないメモリに格納されたプログラムを実行することで実現することもできる。
The
無線通信部203は基地局および/または無線操縦端末と通信を行うことができ、各種指令を受信したり無人飛行体10の現在の状態等を通知したりすることができる。飛行制御部201は無人飛行体10の飛行状態(飛行方向、飛行速度等)を制御する。具体的には、遠隔操作による指示または予め定められた飛行経路に従って、飛行制御部201はモータ制御部202を通して飛行用モータM1~M4の回転速度を調整し、飛行方向、飛行速度等を制御する。本実施形態では、飛行制御部201は、予め設定された飛行ルートおよび撮影対象領域Aに従って飛行方向、飛行速度等を制御する。
A
RTK-GNSSユニット204は、衛星から発信される信号に基づいて無人飛行体10の現在位置(緯度、経度、高さ)を算出する測位部である。RTK-GNSSユニット204を用いることにより自律飛行が可能となる。
The RTK-
メモリ205は、可視光カメラ101で撮影された画像、撮影位置、撮影時の撮影パラメータ等のデータと、自律飛行ルートおよび撮影対象領域Aの位置情報とを格納することができる。メモリ205は、例えばメモリカードのような無人飛行体10に着脱可能な記憶媒体であってもよい。またメモリ205が無人飛行体10の筐体100に内蔵され、インタフェース206を通して外部システムに接続して画像データ等を送受信可能であってもよい。
The
3.情報処理系
以下、一例として可視光カメラ101を搭載した無人飛行体10を用いた自律飛行測量システムの情報処理系について詳述する。
3. Information Processing System The information processing system of the autonomous flight survey system using the unmanned flying
図4に例示するように、本実施形態による自律飛行測量システム20は無人飛行体10および情報処理装置(コンピュータ)30からなり、無人飛行体10は上述した構成を有する。
As illustrated in FIG. 4, an autonomous
コンピュータ30は、無人飛行体10との間で画像データの送受信を行うためのインタフェース210とプロセッサ211とを有し、さらに制御プログラムなどを格納するROM、制御プログラムの作動領域としてのRAM、各種データを書き換え可能に保持するEEPROM、周辺回路等とのインタフェースなどを含んで構成される。コンピュータ30は、例えば写真測量を行う場所から離れた場所に設置されており、無人飛行体10で撮影した画像に基づいて地形データの解析等の処理を実行する。たとえば、プロセッサ211はSfM(Structure from Motion)解析ソフトウェアを実行することで地形算出機能を実現し、無人飛行体10で撮影した画像から撮影対象領域Aの3次元モデルを生成することができる。
The
プロセッサ211により実現される地形算出機能は、画像前処理、特徴点抽出、地形モデル生成および地形データ算出の各機能を含む。
The terrain calculation function realized by the
画像前処理機能は、後段の処理に備えて無人飛行体10で撮影した複数の画像に対して前処理、例えば画像内のノイズの除去、色補正、画像サイズの変更などを行う。特徴点抽出機能は前処理後の複数の画像から複数の特徴点を抽出する。特徴点とは、画像内において周囲の領域とは異なる特徴(例えば周囲の画素との階調差が所定値以上など)を有する点である。
The image preprocessing function performs preprocessing such as noise removal, color correction, and image size change on a plurality of images captured by the
地形モデル生成機能は複数の画像間で特徴点を対応づけ、撮影対象領域Aの3次元モデルを生成する。より詳しくは、各画像において抽出された特徴点同士を対応づけることにより画像間のマッチングを行い、粗い点群(Sparse point cloud)を生成する。さらに粗い点群を用いて各ピクセルの3次元座標を計算し、より高密度な点群データ(Dense point cloud)を生成し、この点群からメッシュデータを作成し、元画像を貼り付けることで最終的な3次元モデルを生成する。 The terrain model generation function associates feature points between a plurality of images to generate a three-dimensional model of the imaging target area A. FIG. More specifically, matching between images is performed by associating feature points extracted from each image to generate a sparse point cloud. By calculating the 3D coordinates of each pixel using a rougher point cloud, generating a denser point cloud, creating mesh data from this point cloud, and pasting the original image Generate the final 3D model.
地形データ算出機能は撮影対象領域Aの3次元モデルから地形の指標値(例えば任意の地点の標高など)を数値データ(地形データ)として算出する。なお、上述したSfM解析ソフトウェアの処理は一例かつ簡易化して示しており、本発明に従来公知の様々な解析方法を適用可能であることは無論である。なお地形データ算出機能については具体例を用いて説明する。 The terrain data calculation function calculates a terrain index value (for example, the elevation of an arbitrary point) from the three-dimensional model of the imaging target area A as numerical data (topography data). It should be noted that the processing of the SfM analysis software described above is shown as an example and simplified, and it goes without saying that various conventionally known analysis methods can be applied to the present invention. Note that the terrain data calculation function will be described using a specific example.
4.第1実施例
本発明の第1実施例による自律飛行測量システムは、基準測量にGPS搭載標定点を利用することで、煩雑な標定点の設置、測量および座標入力といった一連の作業を省略することができ、現場の測量工数およびデータ処理工数を大幅に削減することができる。特に、工事の進捗に合わせて標定点の設置、撤去を繰り返す必要がある場合に顕著な工数削減効果を有する。
4. First Embodiment The autonomous flight survey system according to the first embodiment of the present invention uses GPS-equipped control points for reference surveying, thereby omitting a series of complicated operations such as installation of control points, surveying, and input of coordinates. It is possible to greatly reduce the man-hours for surveying and data processing at the site. In particular, when it is necessary to repeat the installation and removal of ground control points in accordance with the progress of construction work, there is a remarkable reduction in man-hours.
図5に例示するように、切盛土工事現場15にGPS搭載標定点L1~L7を100m以下の間隔で配置し、GPS機能により各標定点の座標データを自動取得することができる。日々の土工事作業終了後に無人飛行体10を飛行させ、可視光カメラ101により所定の撮影対象領域Aを所定の撮影領域Aiごとに撮影する。
As shown in FIG. 5, GPS-equipped control points L1 to L7 are arranged at intervals of 100 m or less at the cutting and
図6に例示するように、無人飛行体10は予め設定された撮影対象領域Aの全体が撮影されるように所定の飛行ルートRに沿って飛行し、撮影対象領域Aの全体を複数の画像(撮像領域Ai)により撮像する。したがって撮影対象領域Aの設定を変更だけで、工事現場の所望の領域を撮影することができる。上述したように、プロセッサ211はSfM解析ソフトウェアを実行して無人飛行体10で撮影した画像から撮影対象領域Aの3次元モデルを生成することができる。各標定点の座標データはGPS機能により自動的に取得できるので測量後の評定点設置作業の省力化および時間短縮を図ることができる。
As illustrated in FIG. 6, the unmanned flying
撮影された画像は非圧縮でメモリ205に保存されるが、本実施例では各画像の画像サイズが縮小(例えば4分の1程度)される。画像サイズの縮小により画像の画素数が低減して特徴点が抽出しやすくなり、データ処理の負荷が軽減される。特に、撮影する地表の起伏が乏しく地質も一様であると有意な特徴点を得にくい。そこで、本実施例では、特徴点の抽出前に画像サイズを縮小して特徴点を抽出しやすくしている。このような縮小は例えばSfM解析ソフト上で実行することができる。
The captured images are stored in the
また、各画像から抽出される特徴点の数は制限されておらず、一般に、1つの画像に対して例えば1万点程度の特徴点が抽出される。このために、特徴となるような地理的形状の変化がない場合でも強制的に特徴点が抽出され、エラーの原因となる可能性がある。特に、起伏が乏しく地質も一様な撮影対象領域であれば、強制的に多数の特徴点を抽出すると測量精度が低下する可能性がある。そこで、本実施例では、1つの画像から抽出する特徴点の数を制限(例えば2000個以内など)するものとした。このような制限は、例えばSfM解析ソフト上の設定を変更することで実行することができる。こうして複数の画像で共通して抽出されるような有意な特徴点を抽出することができる。 Also, the number of feature points extracted from each image is not limited, and generally, for example, about 10,000 feature points are extracted from one image. For this reason, feature points are forcibly extracted even when there is no change in geographic shape that becomes a feature, which may cause errors. In particular, if the area to be photographed has little undulations and uniform geology, forcibly extracting a large number of feature points may reduce the surveying accuracy. Therefore, in this embodiment, the number of feature points extracted from one image is limited (for example, within 2000). Such restrictions can be implemented, for example, by changing settings on the SfM analysis software. In this way, significant feature points that are commonly extracted from a plurality of images can be extracted.
以上述べたように、撮影された画像のデータサイズを縮小し、かつ特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。 As described above, by reducing the data size of the captured image and limiting the number of feature points, it is possible to greatly reduce the time required for data analysis.
一例として、撮影対象領域Aの測量面積を2haとし、基礎測量にGNSS機能を搭載した標定点L1~L7を用い、無人飛行体10にはRTK-GNSS機能と2000万画素の高解像度可視光カメラ101とが搭載され、データ解析にSfM解析ソフト、点群編集ソフトおよび3次元CADを用いた場合、本実施例によれば。評点設定等の事前準備に要する時間を従来に比べて1/4に短縮することができ、さらにデータサイズを抑制することで、基礎測量からデータ解析までの一連の作業に要する時間を1/3に短縮することができた。
As an example, assume that the survey area of the imaging target area A is 2 ha, use the control points L1 to L7 equipped with the GNSS function for the basic survey, and the RTK-GNSS function and a 20-megapixel high-resolution visible light camera for the
5.第2実施例
本発明の第2実施例による自律飛行測量システムは、以下に詳述する斜め方向撮影により、可視光カメラ101の焦点距離の推定精度を向上させることができ、標定点を設置しなくても十分な精度の測量結果を得ることができる。すなわち第2実施例によれば、標定点の設置作業なしに無人飛行体10による測量が可能となり、測量作業の更なる時間短縮が可能となる。また、上述した第1実施例によるGPS搭載標定点を利用した基礎測量と組み合わせる場合でも事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。
5. Second Embodiment An autonomous flight survey system according to a second embodiment of the present invention can improve the accuracy of estimation of the focal length of the visible
図7に例示するように、無人飛行体10は切盛土工事現場15における予め設定された撮影対象領域Aの全体が撮影されるように所定の飛行ルートRに沿って飛行し、次に説明するように撮影対象領域Aの各撮影領域Aiを異なる撮影方向から撮影する(斜め方向撮影)。図7に例示する飛行ルートRでは、無人飛行体10が撮影対象領域Aの一辺に沿った前進方向D1(1)に飛行するとき、可視光カメラ101を進行方向側へ所定角度傾斜させて撮影対象領域AのD1(1)方向における各撮影領域Aiを撮影する。撮影対象領域Aの端部に到達すると、無人飛行体10は飛行向きを逆転させ、可視光カメラ101の撮影方向を前進時とは反対方向に変化させる。こうして無人飛行体10は後退方向D2(1)に飛行し、可視光カメラ101を進行方向側へ所定角度傾斜させた状態で撮影対象領域AのD2(1)方向における各撮影領域Aiを撮影する。
As exemplified in FIG. 7, the unmanned flying
このようにして図7に示す往復撮影を繰り返すことで撮影対象領域Aを撮影領域Aiごとに異なる方向から撮影した複数の画像を得ることができる。こうして得られた撮影対象領域A全体の複数の撮影画像を用いることで、次に説明するように標定点の設置作業なしに所望の撮影対象領域Aの測量作業およびデータ解析作業を効率的に実行できる。 In this way, by repeating the reciprocating photographing shown in FIG. 7, a plurality of images of the photographing target area A photographed from different directions for each photographing area Ai can be obtained. By using a plurality of captured images of the entire imaging target area A obtained in this way, the survey work and data analysis work of the desired imaging target area A can be efficiently performed without the work of setting control points, as described below. can.
図8において、無人飛行体10に搭載された可視光カメラ101の撮影方向を制御しながら撮影対象領域Aの画像を複数枚撮影し、撮影画像データをメモリ205に格納する(ステップ301:撮影工程)。続いて、撮影工程で撮影された画像(メモリ205に記憶された画像)をインタフェース206および210を通してコンピュータ30に読み込ませる(ステップ302)。コンピュータ30に読み込まれた画像は、それぞれ画像前処理機能(ステップ303:画像前処理工程)、特徴点抽出機能(ステップ304:特徴点抽出工程)により処理され、続いて地形モデル生成機能により各画像が合成され測量対象領域の3次元モデルが生成される(ステップ305)。続いて、地形データ算出機能により地形データが算出される(ステップ306)。以下、上記ステップ301~306の詳細について説明する。
In FIG. 8, a plurality of images of the imaging target area A are captured while controlling the imaging direction of the visible
<撮影工程>
図9に示すように、可視光カメラ101の撮影方向を鉛直下方向(重力方向)に対して所定角度傾け、撮影領域Aiを可視光カメラ101で撮影する(斜め方向撮影)。無人飛行体10が位置L1に位置する際、可視光カメラ101の撮影領域Aiは点N1からN4を含む領域となり撮影方向はF1となる。なお、点N1~N4は撮影領域Aiを規定するために便宜的に示したものであり、標定点とは異なる。また位置L1における無人飛行体10の進行方向は矢印D1方向であるものとする。
<Photography process>
As shown in FIG. 9, the imaging direction of the visible
無人飛行体10は進行方向D1の撮影領域Aiを撮影しながら飛行し、所定の地点(撮影対象領域Aの端部)において進行方向を変え、これまで撮影した領域Aiを別角度から再度撮影する。例えば無人飛行体10は位置L2において、再度撮影方向F2から領域Aiを撮影する。位置L2における無人飛行体12の進行方向は矢印D2方向であるものとする。このように本実施例では1つの領域Aiが異なる方向から撮影される。なお、図9では、位置L1における撮影範囲と位置L2における撮影範囲とが同一の領域Aiであるものとしたが、これに限らず、各撮影方向で一部領域のみが重複するように撮影範囲(撮影位置)を設定してもよい。
The
このような斜め方向撮影を行うのは、斜め方向撮影により得られた画像を用いることによって撮影方向に奥行きが生じ、可視光カメラ101の焦点距離の推定精度を向上させることができるためである。従来の鉛直方向撮影では、全ての画像を同じ方向の撮影で取得するため、奥行き方向のスケールを示すパラメータである焦点距離を一意に定めることができず、測量精度を担保するために標定点を設置する必要が生じる。本実施例のように斜め方向撮影を行うことによって、可視光カメラ101の焦点距離の推定精度を向上させることができ、標定点を設置しなくても十分な精度の測量結果を得ることができる。
Such oblique photography is performed because depth is created in the imaging direction by using an image obtained by oblique photography, and the estimation accuracy of the focal length of the visible
図10は、無人飛行体10による撮影方向を模式的に示す側面視図である。無人飛行体10は、可視光カメラ101の撮影方向Fを鉛直下方向Pに対して所定角度α傾けて撮影を行い、撮影領域Aiの画像が撮影される。
FIG. 10 is a side view schematically showing the imaging direction of the unmanned flying
ここで、鉛直下方向Pに対する可視光カメラ101の撮影方向Fの傾きαは、10°以上30°以下とするのが好ましい。傾きαが10°未満の場合、撮影方向が鉛直下方向に近くなり、斜め撮影の効果が十分に得られない。また、傾きαが30°を超えると、撮影した画像の手前側と奥側とで1画素当たりの寸法が大きく変わり、ゆがみが大きくなり、解析精度が低下する可能性がある。
Here, the inclination α of the photographing direction F of the visible
<画像前処理工程>
一般に、撮影工程で撮影された画像は非圧縮でメモリ205に保存されるが、本実施例では画像前処理工程において各画像の画像サイズが縮小(例えば4分の1程度)される。 画像サイズの縮小により画像の画素数が低減して特徴点が抽出しやすくなる。特に、測量対象とする地表の起伏が乏しく地質も一様であると有意な特徴点を得にくい。そこで、本実施例では、特徴点の抽出前に画像サイズを縮小して特徴点を抽出しやすくしている。このような縮小は例えばSfM解析ソフト上で実行することができる。
<Image preprocessing step>
In general, images shot in the shooting process are uncompressed and stored in the
<特徴点抽出工程>
一般に、特徴点抽出工程で各画像から抽出する特徴点の数は制限されておらず、1つの画像に対して例えば1万点程度の特徴点が抽出される。一方、このような方法では、特徴となるような地理的形状の変化がない場合でも強制的に特徴点を抽出してしまい、エラーの原因となる可能性がある。特に、起伏が乏しく地質も一様な測量領域であれば、強制的に多数の特徴点を抽出すると測量精度が低下する可能性がある。そこで、本実施例では、1つの画像から抽出する特徴点の数を制限(例えば2000個以内など)するものとした。このような制限は、例えばSfM解析ソフト上の設定を変更することで実行することができる。こうして複数の画像で共通して抽出されるような有意な特徴点を抽出することができる。
<Feature point extraction process>
In general, the number of feature points extracted from each image in the feature point extraction process is not limited, and for example, about 10,000 feature points are extracted from one image. On the other hand, in such a method, feature points are forcibly extracted even when there is no change in the geographical shape that becomes a feature, which may cause an error. In particular, in a survey area with poor undulations and uniform geology, forcibly extracting a large number of feature points may reduce survey accuracy. Therefore, in this embodiment, the number of feature points extracted from one image is limited (for example, within 2000). Such restrictions can be implemented, for example, by changing settings on the SfM analysis software. In this way, significant feature points that are commonly extracted from a plurality of images can be extracted.
以上述べたように、撮影された画像のデータサイズを縮小し、かつ特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。 As described above, by reducing the data size of the captured image and limiting the number of feature points, it is possible to greatly reduce the time required for data analysis.
上述したように本発明の第2実施例による自律飛行測量システム20によれば、可視光カメラ101を搭載した無人飛行体10を用い、可視光カメラ101により写真測量を行う。特に鉛直下方向に対して所定角度傾けた斜め撮影により奥行きが生じるので、高さ方向の測量精度を向上させることができる。よって、標定点を設置せずに十分な精度の測量を行うことができ、災害現場のように立ち入れない場合であっても無人飛行体10を用いた写真測量を効率的かつ精度よく行うことができる。たとえば無人飛行体10をGSD20mmに相当する高度で写真測量を行った場合、測量制度±50mm以内の高精度を達成することができる。
As described above, according to the autonomous
一例として、撮影対象領域Aの測量面積を2haとし、無人飛行体10にはRTK-GNSS機能と2000万画素の高解像度可視光カメラ101とが搭載され、データ解析にSfM解析ソフト、点群編集ソフトおよび3次元CADを用いた場合、本実施例によれば。標定点の設定等の事前準備が不要となり、測量に要する作業時間を従来に比べて1/4に短縮することができた。また、第1実施例によるGPS搭載標定点を利用した基礎測量と組み合わせても事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。
As an example, the survey area of the imaging target area A is assumed to be 2 ha, and the unmanned flying
10、10a 無人飛行体
11 開閉式基地
12a、12b 開閉式ドーム
13 ベース
14 離発着ポート
15 切盛土工事現場
20 自律飛行測量システム
30 コンピュータ
100 筐体
101 可視光カメラ
200、211 プロセッサ
201 飛行制御部
202 モータ制御部
203 無線通信部
204 RTK-GNSSユニット
205 メモリ
206、210 インタフェース
10, 10a Unmanned aerial vehicle 11
Claims (10)
前記無人飛行体が、前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラと、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影するように制御する制御部と、を有し、
前記情報処理装置が前記カメラにより撮影された複数の画像に基づいて前記撮影対象領域の地形データを算出する、
ことを特徴とする自律飛行測量システム。 An autonomous flight survey system comprising an unmanned flying object that autonomously flies over an imaging target area and an information processing device that processes image data acquired by the unmanned flying object,
The unmanned flying object has a camera capable of photographing the photographing target area from a vertical direction or from a photographing direction tilted by a desired angle, and the photographing direction of the camera tilted by a predetermined angle from a different direction with respect to the vertical downward direction. a control unit that controls to capture a plurality of images of the target area;
The information processing device calculates terrain data of the shooting target area based on a plurality of images shot by the camera;
An autonomous flight survey system characterized by:
前記情報処理装置が、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することを特徴とする請求項1または2に記載の自律飛行測量システム。 A plurality of control points are arranged in advance at predetermined intervals in the imaging target area, and each control point is equipped with a positioning function,
3. The autonomy according to claim 1, wherein said information processing device calculates terrain data of said photographing target area based on position information of said control point and a plurality of images photographed by said camera. flight survey system.
前記無人飛行体が前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラを有し、前記カメラの撮影方向を設定して前記カメラにより前記測量対象領域を含む画像を複数枚撮影する撮影工程と、
前記撮影工程で撮影された複数の前記画像に基づいて、前記測量対象領域の地形データを算出する地形算出工程と、
を有し、前記撮影工程において、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影することを特徴とする自律飛行測量方法。 An autonomous flight survey method by an unmanned flying object autonomously flying over an imaging target area,
The unmanned flying object has a camera capable of photographing the object area to be photographed from a vertical direction or from a photographing direction tilted by a desired angle, and a plurality of images including the survey object area are obtained by the camera by setting the photographing direction of the camera. a photographing process of photographing,
a terrain calculation step of calculating terrain data of the survey target area based on the plurality of images captured in the photographing step;
wherein, in the photographing step, a plurality of images of the photographing target area are photographed by tilting the photographing direction of the camera from different directions with respect to the vertically downward direction by a predetermined angle.
前記地形算出工程において、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することを特徴とする請求項6または7に記載の自律飛行測量方法。 A plurality of control points are arranged in advance at predetermined intervals in the imaging target area, and each control point is equipped with a positioning function,
8. The autonomy according to claim 6, wherein in said terrain calculation step, terrain data of said photographing target area is calculated based on position information of said control points and a plurality of images photographed by said camera. Flight survey method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021140012A JP2023033991A (en) | 2021-08-30 | 2021-08-30 | Autonomous flight survey system and method by unmanned flying body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021140012A JP2023033991A (en) | 2021-08-30 | 2021-08-30 | Autonomous flight survey system and method by unmanned flying body |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023033991A true JP2023033991A (en) | 2023-03-13 |
Family
ID=85505022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021140012A Pending JP2023033991A (en) | 2021-08-30 | 2021-08-30 | Autonomous flight survey system and method by unmanned flying body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023033991A (en) |
-
2021
- 2021-08-30 JP JP2021140012A patent/JP2023033991A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
CN107504957B (en) | Method for rapidly constructing three-dimensional terrain model by using unmanned aerial vehicle multi-view camera shooting | |
JP7263630B2 (en) | Performing 3D reconstruction with unmanned aerial vehicles | |
KR101793509B1 (en) | Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops | |
JP5947634B2 (en) | Aerial photography imaging method and aerial photography imaging system | |
US20170300051A1 (en) | Amphibious vertical take off and landing unmanned device with AI data processing apparatus | |
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
US11756158B2 (en) | Information processing device, information processing method, information processing program, image processing device, and image processing system for associating position information with captured images | |
KR101160454B1 (en) | Construction method of 3D Spatial Information using position controlling of UAV | |
JP2006027331A (en) | Method for collecting aerial image information by utilizing unmanned flying object | |
US11122209B2 (en) | Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium | |
CN105758384A (en) | Unmanned aerial vehicle rocking oblique photograph system | |
CN106094876A (en) | A kind of unmanned plane target locking system and method thereof | |
JPWO2018198313A1 (en) | Unmanned aerial vehicle action plan creation system, method and program | |
JP2017201261A (en) | Shape information generating system | |
JP2021117047A (en) | Photogrammetric method using unmanned flight vehicle and photogrammetric system using the same | |
JP6265576B1 (en) | Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program | |
CN111699454A (en) | Flight planning method and related equipment | |
WO2020225979A1 (en) | Information processing device, information processing method, program, and information processing system | |
CN109163718A (en) | A kind of unmanned plane autonomous navigation method towards groups of building | |
Bailey | Unmanned aerial vehicle path planning and image processing for orthoimagery and digital surface model generation | |
JP2023033991A (en) | Autonomous flight survey system and method by unmanned flying body | |
WO2021014752A1 (en) | Information processing device, information processing method, and information processing program | |
US20200307788A1 (en) | Systems and methods for automatic water surface and sky detection | |
JP2023033988A (en) | Unmanned aerial vehicle, night photogrammetry method and system |