JP2023033991A - Autonomous flight survey system and method by unmanned flying body - Google Patents

Autonomous flight survey system and method by unmanned flying body Download PDF

Info

Publication number
JP2023033991A
JP2023033991A JP2021140012A JP2021140012A JP2023033991A JP 2023033991 A JP2023033991 A JP 2023033991A JP 2021140012 A JP2021140012 A JP 2021140012A JP 2021140012 A JP2021140012 A JP 2021140012A JP 2023033991 A JP2023033991 A JP 2023033991A
Authority
JP
Japan
Prior art keywords
photographing
target area
camera
autonomous flight
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021140012A
Other languages
Japanese (ja)
Inventor
祐仁 松岡
Yuji Matsuoka
晃 野末
Akira Nozue
光男 渋谷
Mitsuo Shibuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Original Assignee
Fujita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp filed Critical Fujita Corp
Priority to JP2021140012A priority Critical patent/JP2023033991A/en
Publication of JP2023033991A publication Critical patent/JP2023033991A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide an autonomous flight survey system and a method by an unmanned flying body that are able to reduce a time required for preliminary preparation and improve autonomous flight survey.SOLUTION: An autonomous flight survey system includes: an unmanned flying body (10) that autonomously flies over a to-be-photographed area; and an information processor (30) that processes image data acquired by the unmanned flying body. The unmanned flying body has: a camera (101) capable of photographing the to-be-photographed area (A) from a vertical direction or a photographing direction inclined by a predetermined angle; and control units (200, 207) that execute control such that a plurality of images of the to-be-photographed area are captured by inclining the photographing direction of the camera by a predetermined angle from a direction different from a vertical downward direction. Based on the plurality of images photographed by the camera, the information processor calculates topographic data of the to-be-photographed area.SELECTED DRAWING: Figure 4

Description

本発明は無人飛行体の自律飛行による測量技術に関する。 The present invention relates to a surveying technique by autonomous flight of an unmanned air vehicle.

ドローンと呼ばれる無人飛行体(UAV:Unmanned Aerial Vehicle)は、写真測量用カメラやスキャナを搭載することで工事現場や人が入り込めない災害現場等を上空から測量あるいは監視することができる。特に、無人飛行体にGPS(Global Positioning System)やGNSS(Global Navigation Satellite System)機能を搭載することで無人飛行体の正確な位置測定ができ、人手による操縦が最小限必要な自律飛行、さらに完全な自律飛行が可能となりつつある(特許文献1および2参照)。 Unmanned Aerial Vehicles (UAVs) called drones are equipped with photogrammetry cameras and scanners, so that construction sites, disaster sites, and the like, which are inaccessible to humans, can be surveyed or monitored from the air. In particular, by equipping the unmanned aircraft with GPS (Global Positioning System) and GNSS (Global Navigation Satellite System) functions, it is possible to accurately measure the position of the unmanned aircraft. autonomous flight is becoming possible (see Patent Documents 1 and 2).

特開2021-004035号公報JP 2021-004035 A 特開2020-126663号公報JP 2020-126663 A

しかしながら、無人飛行体を自律飛行させて測量を行うには、事前に測量対象領域に標定点を設置して各標定点の位置計測を行う必要があり、事前準備に多くの時間を要する。特に自律飛行により全自動測量を実現にするためには事前準備が効率化のボトルネックとなる。 However, in order to fly an unmanned aerial vehicle autonomously for surveying, it is necessary to set control points in the survey target area in advance and measure the position of each control point, which requires a lot of preparation time. In particular, in order to realize fully automatic surveying by autonomous flight, advance preparation becomes a bottleneck in efficiency.

本発明は、このような事情に鑑みなされたものであり、その目的は、事前準備に要する時間を短縮し自律飛行測量を効率化できる無人飛行体による自律飛行測量システムおよび方法を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and its object is to provide an autonomous flight survey system and method using an unmanned flying object that can shorten the time required for advance preparation and improve the efficiency of autonomous flight survey. be.

上述の目的を達成するため、本発明の一態様による自律飛行測量システムは、自律的に撮影対象領域の上空を飛行する無人飛行体と、前記無人飛行体により取得された画像データを処理する情報処理装置と、からなる自律飛行測量システムであって、前記無人飛行体が、前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラと、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影するように制御する制御部と、を有し、前記情報処理装置が前記カメラにより撮影された複数の画像に基づいて前記撮影対象領域の地形データを算出する、ことを特徴とする。
本発明の一態様によれば、前記所定角度は10°以上30°以下とすることが望ましい。
本発明の一態様によれば、前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、前記情報処理装置が、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することができる。
本発明の一態様によれば、前記情報処理装置が、前記撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することができる。
本発明の一態様によれば、1つの画像から抽出される特徴点の数を所定数以下に制限することが望ましい。
本発明の一態様による自律飛行測量方法は、自律的に撮影対象領域の上空を飛行する無人飛行体による自律飛行測量方法であって、前記無人飛行体が前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラを有し、前記カメラの撮影方向を設定して前記カメラにより前記測量対象領域を含む画像を複数枚撮影する撮影工程と、前記撮影工程で撮影された複数の前記画像に基づいて、前記測量対象領域の地形データを算出する地形算出工程と、を有し、前記撮影工程において、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影することを特徴とする。
本発明の一態様によれば、前記所定角度は10°以上30°以下とすることが望ましい。
本発明の一態様によれば、前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、前記地形算出工程において、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することができる。
本発明の一態様によれば、前記地形算出工程において、前記撮影工程で撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することができる。
本発明の一態様によれば、1つの画像から抽出される特徴点の数を所定数以下に制限することが望ましい。
To achieve the above object, an autonomous flight survey system according to one aspect of the present invention includes an unmanned flying object that autonomously flies over an imaging target area, information for processing image data acquired by the unmanned flying object, a processing device, wherein the unmanned flying object has a camera capable of photographing the photographing target area from a vertical direction or from a photographing direction tilted by a desired angle; and a photographing direction of the camera vertically downward. a control unit configured to capture a plurality of images of the target area while being tilted by a predetermined angle from different directions, wherein the information processing device captures the plurality of images captured by the camera; and calculating terrain data of the imaging target area based on the above.
According to one aspect of the present invention, it is desirable that the predetermined angle is 10° or more and 30° or less.
According to one aspect of the present invention, a plurality of control points are arranged in advance at predetermined intervals in the imaging target area, each control point is equipped with a positioning function, and the information processing device obtains the position information of the control points. and the plurality of images captured by the camera, topography data of the imaging target area can be calculated.
According to one aspect of the present invention, the information processing device reduces the image size of each of the plurality of captured images, extracts a plurality of feature points from each of the reduced image sizes, The terrain data can be calculated from the plurality of feature points.
According to one aspect of the present invention, it is desirable to limit the number of feature points extracted from one image to a predetermined number or less.
An autonomous flight survey method according to one aspect of the present invention is an autonomous flight survey method using an unmanned flying object that autonomously flies over an imaging target region, wherein the unmanned flying object moves the imaging target region vertically or at a desired angle. a photographing step of setting the photographing direction of the camera and photographing a plurality of images including the survey target area by the camera; and a terrain calculation step of calculating terrain data of the survey target area based on the image of , wherein in the photographing step, the photographing direction of the camera is tilted by a predetermined angle from a different direction with respect to the vertical downward direction. and a plurality of images of the imaging target area.
According to one aspect of the present invention, it is desirable that the predetermined angle is 10° or more and 30° or less.
According to one aspect of the present invention, a plurality of control points are arranged in advance at predetermined intervals in the imaging target area, each control point is equipped with a positioning function, and in the terrain calculation step, the position information of the control points is and the plurality of images captured by the camera, topography data of the imaging target area can be calculated.
According to one aspect of the present invention, in the terrain calculation step, the image size of each of the plurality of images captured in the photographing step is reduced, and a plurality of feature points are calculated from each of the reduced image sizes. The terrain data can be calculated from the plurality of feature points.
According to one aspect of the present invention, it is desirable to limit the number of feature points extracted from one image to a predetermined number or less.

本発明によれば、鉛直下方向に対して所定角度傾けた斜め撮影により奥行きが生じるので、標定点の設定なしに十分な精度の測量を行うことができ、事前準備に要する時間を短縮し自律飛行測量を効率化できる。特に所定角度を10°以上30°以下とすることで測量精度を向上させることができる。
さらに、測位機能を搭載した複数の標定点を配置することで事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。
また撮影された画像のデータサイズを縮小し、特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。
According to the present invention, since depth is created by oblique photography at a predetermined angle with respect to the vertical downward direction, it is possible to perform surveying with sufficient accuracy without setting control points, shorten the time required for advance preparation, and autonomously perform surveying. Flight survey can be made more efficient. In particular, by setting the predetermined angle to 10° or more and 30° or less, the survey accuracy can be improved.
Furthermore, by arranging multiple ground control points equipped with positioning functions, it is possible to simplify and shorten the series of tasks from preparation to data analysis.
Also, by reducing the data size of the captured image and limiting the number of feature points, the time required for data analysis can be greatly shortened.

本発明の一実施形態による無人飛行体の自律飛行システムの概略的構成を示す模式図である。1 is a schematic diagram showing a schematic configuration of an autonomous flight system for an unmanned air vehicle according to an embodiment of the present invention; FIG. 本実施形態に使用される無人飛行体の一例の概略的構成を示す図である。1 is a diagram showing a schematic configuration of an example of an unmanned air vehicle used in this embodiment; FIG. 本実施形態に使用される無人飛行体の他の例の概略的構成を示す図である。FIG. 4 is a diagram showing a schematic configuration of another example of an unmanned air vehicle used in this embodiment; 本実施形態による自律飛行測量システムで使用される自律飛行測量システムの構成を示す図である。It is a figure which shows the structure of the autonomous flight survey system used with the autonomous flight survey system by this embodiment. 本発明の第1実施例による自律飛行測量システムの一例を示す模式図である。1 is a schematic diagram showing an example of an autonomous flight survey system according to a first embodiment of the present invention; FIG. 第1実施例による自律飛行測量システムの飛行ルートの一例を示す模式図である。1 is a schematic diagram showing an example of a flight route of the autonomous flight survey system according to the first embodiment; FIG. 本発明の第2実施例による自律飛行測量システムの飛行ルートの一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of a flight route of the autonomous flight survey system according to the second embodiment of the present invention; 第2実施例による自律飛行測量システムにおける処理手順を示すフローチャートである。。9 is a flow chart showing a processing procedure in the autonomous flight survey system according to the second embodiment; . 第2実施例による自律飛行測量システムにおける撮影方法の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of an imaging method in the autonomous flight survey system according to the second embodiment; 第2実施例による自律飛行測量システムにおける無人飛行体による撮影方向を模式的に示す側面視図である。FIG. 11 is a side view schematically showing the imaging direction of the unmanned flying object in the autonomous flight survey system according to the second embodiment;

以下に添付図面を参照して、本発明による自律飛行測量システムの好適な実施の形態を詳細に説明する。 Preferred embodiments of the autonomous flight survey system according to the present invention will be described in detail below with reference to the accompanying drawings.

1.自律飛行測量システム
図1に例示するように、本発明の一実施形態による自律飛行測量システムは、撮影用のカメラを搭載し自律飛行可能な無人飛行体10と無人飛行体10の発着地点となる基地11とからなる。無人飛行体10は、後述するように予め飛行コースおよび撮影対象領域Aが設定されているものとする。基地11を離陸した無人飛行体10は撮影対象領域A(たとえば切盛土工事現場15)の上空を所定のコースで飛行して撮影対象領域Aの撮影を行い、撮影データを保持して基地11に帰還する。
1. Autonomous Flight Survey System As illustrated in FIG. 1, an autonomous flight survey system according to an embodiment of the present invention includes an unmanned flying object 10 equipped with a camera for photographing and capable of autonomous flight and a departure and arrival point for the unmanned flying object 10. base 11; It is assumed that the unmanned air vehicle 10 has a flight course and a shooting target area A set in advance, as will be described later. After taking off from the base 11 , the unmanned flying object 10 flies over an imaging target area A (for example, a cutting and filling construction site 15 ) along a predetermined course, takes an image of the imaging target area A, holds the imaging data, and returns to the base 11 . return.

基地11は、特に限定されないが、離発着可能な開閉式ハッチを有する格納庫である。たとえば開閉式ドーム12aおよび12bがベース13上に矢印C方向に移動可能に設置され、ベース13上には離発着ポート14が設けられている。望ましくは離発着ポート14に着陸時の無人飛行体10のバッテリを充電する設備が設けられる。無人飛行体10は、開閉式ドーム12aおよび12bが開いた状態で離発着し、着陸後に開閉式ドーム12aおよび12bが閉じて格納される。 The base 11 is not particularly limited, but is a hangar having an opening and closing type hatch that can take off and land. For example, openable domes 12a and 12b are installed on base 13 so as to be movable in the direction of arrow C, and base 13 is provided with take-off and landing ports 14. As shown in FIG. Preferably, the take-off/landing port 14 is provided with facilities for charging the battery of the unmanned air vehicle 10 upon landing. The unmanned air vehicle 10 takes off and lands with the retractable domes 12a and 12b open, and after landing, the retractable domes 12a and 12b are closed and stored.

2.無人飛行体
図2に例示するように、無人飛行体10は筐体100の周辺部の所定位置に複数の飛行用モータMが設けられ、各モータMの回転軸にプロペラPrが接続されている。無人飛行体10は、後述するように、遠隔操作による飛行または自律飛行の少なくとも一方が可能である。
2. Unmanned flying object As shown in FIG. 2, an unmanned flying object 10 is provided with a plurality of flight motors M at predetermined positions on the periphery of a housing 100, and a propeller Pr is connected to the rotating shaft of each motor M. . As will be described later, the unmanned air vehicle 10 is capable of at least one of remote-controlled flight and autonomous flight.

無人飛行体10の筐体100の底面には、可視光カメラ101が街道可能に支持部材102に連結され、また3本以上の脚部103が固定されている。可視光カメラ101は通常のカラー撮影用のRGBカメラを用いることができ、動画像あるいは静止画像を撮影可能である。 A visible light camera 101 is connected to a support member 102 so as to be able to pass through, and three or more legs 103 are fixed to the bottom surface of a housing 100 of the unmanned air vehicle 10 . The visible light camera 101 can be a normal RGB camera for color photography, and is capable of photographing moving images or still images.

可視光カメラ101は、無人飛行体10の飛行中、その撮影方向を地表に向け、地表を撮影することができる。また、可視光カメラ101は首振り機構を備え、撮影方向を任意に変更することが可能である。たとえば可視光カメラ101は撮影方向を無人飛行体10の直下(鉛直方向)あるいは所望角度傾斜した斜め方向に設定可能である。首振り機構としては種々の機構を採用でき、たとえばサーボモータの回転により可視光カメラ101の撮影方向を変更することができる。 The visible light camera 101 can photograph the ground surface while the unmanned air vehicle 10 is flying. Also, the visible light camera 101 has a swinging mechanism, and can arbitrarily change the photographing direction. For example, the visible light camera 101 can set the photographing direction directly below the unmanned air vehicle 10 (vertical direction) or in an oblique direction inclined at a desired angle. Various mechanisms can be employed as the swing mechanism, and for example, the imaging direction of the visible light camera 101 can be changed by rotating a servomotor.

図3に例示するように、空撮用のカメラとして、図2のような可視光カメラ101だけでなく、赤外線(IR)カメラを設けてもよい。図3に例示する無人飛行体10aは、可視光カメラ101と赤外線(IR)カメラ101aとを一体化したカメラ部111を有し、必要に応じて可視光カメラ101と赤外線カメラ101aとを切り替えたり、あるいは両方を使用したりすることができる。また可視光カメラ101と照明光源104とを組み合わせて夜間写真測量に使用することもできる。照明光源104は支持部材105を通して筐体100の底面に設置されてもよい。照明光源104は後述する地表を照明するための光源であり、いわゆるスポットライトあるいはサーチライトを用いるこができる。これら以外は図2の無人飛行体10と同様の構成を有するので、同じ部材には同じ参照番号を付して説明は省略する。 As illustrated in FIG. 3, an infrared (IR) camera may be provided as an aerial camera in addition to the visible light camera 101 as shown in FIG. An unmanned flying object 10a illustrated in FIG. 3 has a camera unit 111 that integrates a visible light camera 101 and an infrared (IR) camera 101a, and switches between the visible light camera 101 and the infrared camera 101a as necessary. , or both. A combination of the visible light camera 101 and the illumination light source 104 can also be used for nighttime photogrammetry. The illumination light source 104 may be installed on the bottom surface of the housing 100 through the support member 105 . The illumination light source 104 is a light source for illuminating the surface of the earth, which will be described later, and can be a so-called spotlight or searchlight. Other than these, the configuration is the same as that of the unmanned flying vehicle 10 of FIG. 2, so the same reference numerals are given to the same members and the description thereof will be omitted.

カメラ部111および照明光源104は可視光カメラ101と同様に首振り機構を備え、撮影/照明方向を任意に変更することが可能である。カメラ部111のIRカメラ101aは撮影領域Aiにおける地表の温度分布を画像として撮像することができ、夜間であっても地形を把握することができる。たとえば可視光カメラ101と赤外線カメラ101aの両方の撮影画像を用いて災害現場の測量を行うこともできる。赤外線カメラ101aは温度分布を可視化するので、たとえば生存者の存在を検出することが可能となる。 The camera unit 111 and the illumination light source 104 are equipped with a swing mechanism like the visible light camera 101, and can arbitrarily change the photographing/illumination direction. The IR camera 101a of the camera unit 111 can capture the temperature distribution of the ground surface in the imaging area Ai as an image, and the topography can be grasped even at night. For example, images captured by both the visible light camera 101 and the infrared camera 101a can be used to survey the disaster site. Since the infrared camera 101a visualizes the temperature distribution, it becomes possible to detect the existence of survivors, for example.

図4に例示するように、無人飛行体10は上述した可視光カメラ101を備え、さらに無人飛行体10の筐体100内には、無人飛行体10の各種機能を実現するプロセッサ200、飛行制御部201、モータ制御部202、無線通信部203、RTK(Real Time Kinematic)-GNSS(Global Navigation Satellite System/全球測位衛星システム)ユニット204、メモリ205、インタフェース206および撮影方向制御部207が設けられている。 As exemplified in FIG. 4, the unmanned flying object 10 includes the above-described visible light camera 101, and furthermore, a processor 200 for realizing various functions of the unmanned flying object 10, a flight control unit, and a flight control unit are provided in the housing 100 of the unmanned flying object 10. A unit 201, a motor control unit 202, a wireless communication unit 203, an RTK (Real Time Kinematic)-GNSS (Global Navigation Satellite System) unit 204, a memory 205, an interface 206, and an imaging direction control unit 207 are provided. there is

プロセッサ200は図示しないメモリに格納されたプログラムを実行することで以下に述べる種々の機能を実現することができる。プロセッサ200は、可視光カメラ101の撮影タイミング、撮影方向、その他撮影パラメータ(シャッター速度、ISO感度、絞り、フォーカスなど)を制御する。例えば、後述するRTK-GNSSユニット204で算出した無人飛行体10の現在位置が予め定められた撮影位置に達した場合、プロセッサ200は撮影方向制御部207を通し可視光カメラ101が予め定められた撮影方向を向くように制御し、可視光カメラ101が予め定められた撮影パラメータで撮影を行うよう制御する。撮影方向制御部207は、たとえば上述した首振り機構のサーボモータの回転を制御することで可視光カメラ101の撮影方向を任意の方向に設定することができる。なお、プロセッサ200、飛行制御部201、モータ制御部202および撮影方向制御部207は無人飛行体10の制御部として機能し、プロセッサ200が図示しないメモリに格納されたプログラムを実行することで実現することもできる。 The processor 200 can implement various functions described below by executing a program stored in a memory (not shown). The processor 200 controls the imaging timing, imaging direction, and other imaging parameters (shutter speed, ISO sensitivity, aperture, focus, etc.) of the visible light camera 101 . For example, when the current position of the unmanned flying object 10 calculated by the RTK-GNSS unit 204, which will be described later, reaches a predetermined photographing position, the processor 200 causes the visible light camera 101 to move to the predetermined position through the photographing direction control unit 207. The visible light camera 101 is controlled to face the shooting direction, and the visible light camera 101 is controlled to shoot with predetermined shooting parameters. The photographing direction control unit 207 can set the photographing direction of the visible light camera 101 to an arbitrary direction, for example, by controlling the rotation of the servo motor of the swing mechanism described above. Note that the processor 200, the flight control unit 201, the motor control unit 202, and the imaging direction control unit 207 function as a control unit of the unmanned air vehicle 10, and are realized by the processor 200 executing a program stored in a memory (not shown). can also

無線通信部203は基地局および/または無線操縦端末と通信を行うことができ、各種指令を受信したり無人飛行体10の現在の状態等を通知したりすることができる。飛行制御部201は無人飛行体10の飛行状態(飛行方向、飛行速度等)を制御する。具体的には、遠隔操作による指示または予め定められた飛行経路に従って、飛行制御部201はモータ制御部202を通して飛行用モータM1~M4の回転速度を調整し、飛行方向、飛行速度等を制御する。本実施形態では、飛行制御部201は、予め設定された飛行ルートおよび撮影対象領域Aに従って飛行方向、飛行速度等を制御する。 A wireless communication unit 203 can communicate with a base station and/or a wireless control terminal, receive various commands, and notify the current state of the unmanned air vehicle 10 . A flight control unit 201 controls the flight state (flight direction, flight speed, etc.) of the unmanned air vehicle 10 . Specifically, the flight control unit 201 adjusts the rotation speeds of the flight motors M1 to M4 through the motor control unit 202 according to a remote control instruction or a predetermined flight route, thereby controlling the flight direction, flight speed, and the like. . In this embodiment, the flight control unit 201 controls the flight direction, flight speed, etc., according to the preset flight route and imaging target area A. FIG.

RTK-GNSSユニット204は、衛星から発信される信号に基づいて無人飛行体10の現在位置(緯度、経度、高さ)を算出する測位部である。RTK-GNSSユニット204を用いることにより自律飛行が可能となる。 The RTK-GNSS unit 204 is a positioning unit that calculates the current position (latitude, longitude, height) of the unmanned air vehicle 10 based on signals transmitted from satellites. Using the RTK-GNSS unit 204 enables autonomous flight.

メモリ205は、可視光カメラ101で撮影された画像、撮影位置、撮影時の撮影パラメータ等のデータと、自律飛行ルートおよび撮影対象領域Aの位置情報とを格納することができる。メモリ205は、例えばメモリカードのような無人飛行体10に着脱可能な記憶媒体であってもよい。またメモリ205が無人飛行体10の筐体100に内蔵され、インタフェース206を通して外部システムに接続して画像データ等を送受信可能であってもよい。 The memory 205 can store data such as images captured by the visible light camera 101, capturing positions, capturing parameters at the time of capturing, and position information of the autonomous flight route and the capturing target area A. The memory 205 may be a storage medium such as a memory card that can be attached to and detached from the unmanned air vehicle 10 . Further, the memory 205 may be built in the housing 100 of the unmanned air vehicle 10 and connected to an external system through the interface 206 so that image data and the like can be transmitted and received.

3.情報処理系
以下、一例として可視光カメラ101を搭載した無人飛行体10を用いた自律飛行測量システムの情報処理系について詳述する。
3. Information Processing System The information processing system of the autonomous flight survey system using the unmanned flying object 10 equipped with the visible light camera 101 will be described below as an example.

図4に例示するように、本実施形態による自律飛行測量システム20は無人飛行体10および情報処理装置(コンピュータ)30からなり、無人飛行体10は上述した構成を有する。 As illustrated in FIG. 4, an autonomous flight survey system 20 according to this embodiment includes an unmanned flying object 10 and an information processing device (computer) 30, and the unmanned flying object 10 has the configuration described above.

コンピュータ30は、無人飛行体10との間で画像データの送受信を行うためのインタフェース210とプロセッサ211とを有し、さらに制御プログラムなどを格納するROM、制御プログラムの作動領域としてのRAM、各種データを書き換え可能に保持するEEPROM、周辺回路等とのインタフェースなどを含んで構成される。コンピュータ30は、例えば写真測量を行う場所から離れた場所に設置されており、無人飛行体10で撮影した画像に基づいて地形データの解析等の処理を実行する。たとえば、プロセッサ211はSfM(Structure from Motion)解析ソフトウェアを実行することで地形算出機能を実現し、無人飛行体10で撮影した画像から撮影対象領域Aの3次元モデルを生成することができる。 The computer 30 has an interface 210 and a processor 211 for transmitting and receiving image data to and from the unmanned air vehicle 10, further includes a ROM for storing control programs and the like, a RAM as an operation area for the control programs, various data , an interface with a peripheral circuit, and the like. The computer 30 is installed, for example, at a location away from the location where photogrammetry is performed, and executes processing such as terrain data analysis based on images captured by the unmanned air vehicle 10 . For example, the processor 211 can implement a terrain calculation function by executing SfM (Structure from Motion) analysis software, and can generate a three-dimensional model of the imaging target area A from the images captured by the unmanned air vehicle 10 .

プロセッサ211により実現される地形算出機能は、画像前処理、特徴点抽出、地形モデル生成および地形データ算出の各機能を含む。 The terrain calculation function realized by the processor 211 includes image preprocessing, feature point extraction, terrain model generation, and terrain data calculation functions.

画像前処理機能は、後段の処理に備えて無人飛行体10で撮影した複数の画像に対して前処理、例えば画像内のノイズの除去、色補正、画像サイズの変更などを行う。特徴点抽出機能は前処理後の複数の画像から複数の特徴点を抽出する。特徴点とは、画像内において周囲の領域とは異なる特徴(例えば周囲の画素との階調差が所定値以上など)を有する点である。 The image preprocessing function performs preprocessing such as noise removal, color correction, and image size change on a plurality of images captured by the unmanned air vehicle 10 in preparation for subsequent processing. The feature point extraction function extracts a plurality of feature points from a plurality of preprocessed images. A feature point is a point in an image that has a feature different from surrounding areas (for example, a difference in gradation from surrounding pixels is equal to or greater than a predetermined value).

地形モデル生成機能は複数の画像間で特徴点を対応づけ、撮影対象領域Aの3次元モデルを生成する。より詳しくは、各画像において抽出された特徴点同士を対応づけることにより画像間のマッチングを行い、粗い点群(Sparse point cloud)を生成する。さらに粗い点群を用いて各ピクセルの3次元座標を計算し、より高密度な点群データ(Dense point cloud)を生成し、この点群からメッシュデータを作成し、元画像を貼り付けることで最終的な3次元モデルを生成する。 The terrain model generation function associates feature points between a plurality of images to generate a three-dimensional model of the imaging target area A. FIG. More specifically, matching between images is performed by associating feature points extracted from each image to generate a sparse point cloud. By calculating the 3D coordinates of each pixel using a rougher point cloud, generating a denser point cloud, creating mesh data from this point cloud, and pasting the original image Generate the final 3D model.

地形データ算出機能は撮影対象領域Aの3次元モデルから地形の指標値(例えば任意の地点の標高など)を数値データ(地形データ)として算出する。なお、上述したSfM解析ソフトウェアの処理は一例かつ簡易化して示しており、本発明に従来公知の様々な解析方法を適用可能であることは無論である。なお地形データ算出機能については具体例を用いて説明する。 The terrain data calculation function calculates a terrain index value (for example, the elevation of an arbitrary point) from the three-dimensional model of the imaging target area A as numerical data (topography data). It should be noted that the processing of the SfM analysis software described above is shown as an example and simplified, and it goes without saying that various conventionally known analysis methods can be applied to the present invention. Note that the terrain data calculation function will be described using a specific example.

4.第1実施例
本発明の第1実施例による自律飛行測量システムは、基準測量にGPS搭載標定点を利用することで、煩雑な標定点の設置、測量および座標入力といった一連の作業を省略することができ、現場の測量工数およびデータ処理工数を大幅に削減することができる。特に、工事の進捗に合わせて標定点の設置、撤去を繰り返す必要がある場合に顕著な工数削減効果を有する。
4. First Embodiment The autonomous flight survey system according to the first embodiment of the present invention uses GPS-equipped control points for reference surveying, thereby omitting a series of complicated operations such as installation of control points, surveying, and input of coordinates. It is possible to greatly reduce the man-hours for surveying and data processing at the site. In particular, when it is necessary to repeat the installation and removal of ground control points in accordance with the progress of construction work, there is a remarkable reduction in man-hours.

図5に例示するように、切盛土工事現場15にGPS搭載標定点L1~L7を100m以下の間隔で配置し、GPS機能により各標定点の座標データを自動取得することができる。日々の土工事作業終了後に無人飛行体10を飛行させ、可視光カメラ101により所定の撮影対象領域Aを所定の撮影領域Aiごとに撮影する。 As shown in FIG. 5, GPS-equipped control points L1 to L7 are arranged at intervals of 100 m or less at the cutting and banking construction site 15, and the coordinate data of each control point can be automatically acquired by the GPS function. After daily earthwork work is completed, the unmanned air vehicle 10 is flown, and the visible light camera 101 photographs a predetermined photographing target area A for each predetermined photographing area Ai.

図6に例示するように、無人飛行体10は予め設定された撮影対象領域Aの全体が撮影されるように所定の飛行ルートRに沿って飛行し、撮影対象領域Aの全体を複数の画像(撮像領域Ai)により撮像する。したがって撮影対象領域Aの設定を変更だけで、工事現場の所望の領域を撮影することができる。上述したように、プロセッサ211はSfM解析ソフトウェアを実行して無人飛行体10で撮影した画像から撮影対象領域Aの3次元モデルを生成することができる。各標定点の座標データはGPS機能により自動的に取得できるので測量後の評定点設置作業の省力化および時間短縮を図ることができる。 As illustrated in FIG. 6, the unmanned flying object 10 flies along a predetermined flight route R so that the entire photographing target area A set in advance is photographed. An image is captured by (imaging area Ai). Therefore, only by changing the setting of the imaging target area A, a desired area of the construction site can be photographed. As described above, the processor 211 can execute the SfM analysis software to generate a three-dimensional model of the imaging target area A from the images captured by the unmanned air vehicle 10 . Since the coordinate data of each control point can be automatically acquired by the GPS function, it is possible to save labor and shorten the time required for setting up the control points after surveying.

撮影された画像は非圧縮でメモリ205に保存されるが、本実施例では各画像の画像サイズが縮小(例えば4分の1程度)される。画像サイズの縮小により画像の画素数が低減して特徴点が抽出しやすくなり、データ処理の負荷が軽減される。特に、撮影する地表の起伏が乏しく地質も一様であると有意な特徴点を得にくい。そこで、本実施例では、特徴点の抽出前に画像サイズを縮小して特徴点を抽出しやすくしている。このような縮小は例えばSfM解析ソフト上で実行することができる。 The captured images are stored in the memory 205 without being compressed, but in this embodiment, the image size of each image is reduced (for example, about 1/4). Reducing the image size reduces the number of pixels in the image, making it easier to extract feature points and reducing the load of data processing. In particular, it is difficult to obtain significant feature points when the surface of the ground to be photographed has little undulation and the geology is uniform. Therefore, in this embodiment, the image size is reduced before extracting the feature points to make it easier to extract the feature points. Such reduction can be performed, for example, on SfM analysis software.

また、各画像から抽出される特徴点の数は制限されておらず、一般に、1つの画像に対して例えば1万点程度の特徴点が抽出される。このために、特徴となるような地理的形状の変化がない場合でも強制的に特徴点が抽出され、エラーの原因となる可能性がある。特に、起伏が乏しく地質も一様な撮影対象領域であれば、強制的に多数の特徴点を抽出すると測量精度が低下する可能性がある。そこで、本実施例では、1つの画像から抽出する特徴点の数を制限(例えば2000個以内など)するものとした。このような制限は、例えばSfM解析ソフト上の設定を変更することで実行することができる。こうして複数の画像で共通して抽出されるような有意な特徴点を抽出することができる。 Also, the number of feature points extracted from each image is not limited, and generally, for example, about 10,000 feature points are extracted from one image. For this reason, feature points are forcibly extracted even when there is no change in geographic shape that becomes a feature, which may cause errors. In particular, if the area to be photographed has little undulations and uniform geology, forcibly extracting a large number of feature points may reduce the surveying accuracy. Therefore, in this embodiment, the number of feature points extracted from one image is limited (for example, within 2000). Such restrictions can be implemented, for example, by changing settings on the SfM analysis software. In this way, significant feature points that are commonly extracted from a plurality of images can be extracted.

以上述べたように、撮影された画像のデータサイズを縮小し、かつ特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。 As described above, by reducing the data size of the captured image and limiting the number of feature points, it is possible to greatly reduce the time required for data analysis.

一例として、撮影対象領域Aの測量面積を2haとし、基礎測量にGNSS機能を搭載した標定点L1~L7を用い、無人飛行体10にはRTK-GNSS機能と2000万画素の高解像度可視光カメラ101とが搭載され、データ解析にSfM解析ソフト、点群編集ソフトおよび3次元CADを用いた場合、本実施例によれば。評点設定等の事前準備に要する時間を従来に比べて1/4に短縮することができ、さらにデータサイズを抑制することで、基礎測量からデータ解析までの一連の作業に要する時間を1/3に短縮することができた。 As an example, assume that the survey area of the imaging target area A is 2 ha, use the control points L1 to L7 equipped with the GNSS function for the basic survey, and the RTK-GNSS function and a 20-megapixel high-resolution visible light camera for the unmanned air vehicle 10. 101 is installed, and SfM analysis software, point cloud editing software, and three-dimensional CAD are used for data analysis, according to this embodiment. The time required for preparation such as score setting can be shortened to 1/4 compared to the conventional method, and by suppressing the data size, the time required for a series of tasks from basic surveying to data analysis can be reduced to 1/3. could be shortened to

5.第2実施例
本発明の第2実施例による自律飛行測量システムは、以下に詳述する斜め方向撮影により、可視光カメラ101の焦点距離の推定精度を向上させることができ、標定点を設置しなくても十分な精度の測量結果を得ることができる。すなわち第2実施例によれば、標定点の設置作業なしに無人飛行体10による測量が可能となり、測量作業の更なる時間短縮が可能となる。また、上述した第1実施例によるGPS搭載標定点を利用した基礎測量と組み合わせる場合でも事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。
5. Second Embodiment An autonomous flight survey system according to a second embodiment of the present invention can improve the accuracy of estimation of the focal length of the visible light camera 101 by oblique photography described in detail below. Even without it, survey results with sufficient accuracy can be obtained. That is, according to the second embodiment, surveying by the unmanned flying object 10 can be performed without setting control points, and the time required for surveying can be further reduced. Moreover, even when combined with the basic survey using the GPS-equipped control points according to the first embodiment described above, it is possible to achieve simplification and time reduction of a series of operations from advance preparation to data analysis.

図7に例示するように、無人飛行体10は切盛土工事現場15における予め設定された撮影対象領域Aの全体が撮影されるように所定の飛行ルートRに沿って飛行し、次に説明するように撮影対象領域Aの各撮影領域Aiを異なる撮影方向から撮影する(斜め方向撮影)。図7に例示する飛行ルートRでは、無人飛行体10が撮影対象領域Aの一辺に沿った前進方向D1(1)に飛行するとき、可視光カメラ101を進行方向側へ所定角度傾斜させて撮影対象領域AのD1(1)方向における各撮影領域Aiを撮影する。撮影対象領域Aの端部に到達すると、無人飛行体10は飛行向きを逆転させ、可視光カメラ101の撮影方向を前進時とは反対方向に変化させる。こうして無人飛行体10は後退方向D2(1)に飛行し、可視光カメラ101を進行方向側へ所定角度傾斜させた状態で撮影対象領域AのD2(1)方向における各撮影領域Aiを撮影する。 As exemplified in FIG. 7, the unmanned flying object 10 flies along a predetermined flight route R so as to photograph the entirety of a predetermined photographing target area A at a cutting and banking construction site 15, which will be described below. Each photographing area Ai of the photographing target area A is photographed from different photographing directions (oblique direction photographing). On the flight route R illustrated in FIG. 7, when the unmanned flying object 10 flies in the forward direction D1(1) along one side of the imaging target area A, the visible light camera 101 is tilted at a predetermined angle toward the traveling direction to photograph. Each photographing area Ai of the target area A in the D1(1) direction is photographed. When the unmanned flying object 10 reaches the end of the imaging target area A, it reverses its flight direction, and changes the imaging direction of the visible light camera 101 to the direction opposite to that during forward movement. In this way, the unmanned flying object 10 flies in the backward direction D2(1), and with the visible light camera 101 tilted at a predetermined angle toward the traveling direction, photographs each photographing area Ai of the photographing target area A in the D2(1) direction. .

このようにして図7に示す往復撮影を繰り返すことで撮影対象領域Aを撮影領域Aiごとに異なる方向から撮影した複数の画像を得ることができる。こうして得られた撮影対象領域A全体の複数の撮影画像を用いることで、次に説明するように標定点の設置作業なしに所望の撮影対象領域Aの測量作業およびデータ解析作業を効率的に実行できる。 In this way, by repeating the reciprocating photographing shown in FIG. 7, a plurality of images of the photographing target area A photographed from different directions for each photographing area Ai can be obtained. By using a plurality of captured images of the entire imaging target area A obtained in this way, the survey work and data analysis work of the desired imaging target area A can be efficiently performed without the work of setting control points, as described below. can.

図8において、無人飛行体10に搭載された可視光カメラ101の撮影方向を制御しながら撮影対象領域Aの画像を複数枚撮影し、撮影画像データをメモリ205に格納する(ステップ301:撮影工程)。続いて、撮影工程で撮影された画像(メモリ205に記憶された画像)をインタフェース206および210を通してコンピュータ30に読み込ませる(ステップ302)。コンピュータ30に読み込まれた画像は、それぞれ画像前処理機能(ステップ303:画像前処理工程)、特徴点抽出機能(ステップ304:特徴点抽出工程)により処理され、続いて地形モデル生成機能により各画像が合成され測量対象領域の3次元モデルが生成される(ステップ305)。続いて、地形データ算出機能により地形データが算出される(ステップ306)。以下、上記ステップ301~306の詳細について説明する。 In FIG. 8, a plurality of images of the imaging target area A are captured while controlling the imaging direction of the visible light camera 101 mounted on the unmanned air vehicle 10, and the captured image data is stored in the memory 205 (step 301: imaging process). ). Subsequently, the image captured in the image capturing process (the image stored in the memory 205) is read into the computer 30 through the interfaces 206 and 210 (step 302). The image read into the computer 30 is processed by the image preprocessing function (step 303: image preprocessing step) and the feature point extraction function (step 304: feature point extraction step). are combined to generate a three-dimensional model of the survey target area (step 305). Subsequently, the terrain data is calculated by the terrain data calculation function (step 306). The details of steps 301 to 306 will be described below.

<撮影工程>
図9に示すように、可視光カメラ101の撮影方向を鉛直下方向(重力方向)に対して所定角度傾け、撮影領域Aiを可視光カメラ101で撮影する(斜め方向撮影)。無人飛行体10が位置L1に位置する際、可視光カメラ101の撮影領域Aiは点N1からN4を含む領域となり撮影方向はF1となる。なお、点N1~N4は撮影領域Aiを規定するために便宜的に示したものであり、標定点とは異なる。また位置L1における無人飛行体10の進行方向は矢印D1方向であるものとする。
<Photography process>
As shown in FIG. 9, the imaging direction of the visible light camera 101 is inclined by a predetermined angle with respect to the vertical downward direction (the direction of gravity), and the imaging area Ai is photographed by the visible light camera 101 (oblique direction imaging). When the unmanned air vehicle 10 is positioned at position L1, the imaging area Ai of the visible light camera 101 is an area including points N1 to N4, and the imaging direction is F1. The points N1 to N4 are shown for convenience in order to define the photographing area Ai, and are different from control points. Also, the traveling direction of the unmanned flying object 10 at position L1 is assumed to be the direction of arrow D1.

無人飛行体10は進行方向D1の撮影領域Aiを撮影しながら飛行し、所定の地点(撮影対象領域Aの端部)において進行方向を変え、これまで撮影した領域Aiを別角度から再度撮影する。例えば無人飛行体10は位置L2において、再度撮影方向F2から領域Aiを撮影する。位置L2における無人飛行体12の進行方向は矢印D2方向であるものとする。このように本実施例では1つの領域Aiが異なる方向から撮影される。なお、図9では、位置L1における撮影範囲と位置L2における撮影範囲とが同一の領域Aiであるものとしたが、これに限らず、各撮影方向で一部領域のみが重複するように撮影範囲(撮影位置)を設定してもよい。 The unmanned flying object 10 flies while photographing the photographing area Ai in the traveling direction D1, changes the traveling direction at a predetermined point (end of the photographing target area A), and again photographs the previously photographed area Ai from a different angle. . For example, the unmanned flying object 10 captures an image of the area Ai again from the capturing direction F2 at the position L2. It is assumed that the traveling direction of the unmanned flying object 12 at position L2 is the direction of arrow D2. Thus, in this embodiment, one area Ai is photographed from different directions. In FIG. 9, the imaging range at the position L1 and the imaging range at the position L2 are assumed to be the same area Ai. (shooting position) may be set.

このような斜め方向撮影を行うのは、斜め方向撮影により得られた画像を用いることによって撮影方向に奥行きが生じ、可視光カメラ101の焦点距離の推定精度を向上させることができるためである。従来の鉛直方向撮影では、全ての画像を同じ方向の撮影で取得するため、奥行き方向のスケールを示すパラメータである焦点距離を一意に定めることができず、測量精度を担保するために標定点を設置する必要が生じる。本実施例のように斜め方向撮影を行うことによって、可視光カメラ101の焦点距離の推定精度を向上させることができ、標定点を設置しなくても十分な精度の測量結果を得ることができる。 Such oblique photography is performed because depth is created in the imaging direction by using an image obtained by oblique photography, and the estimation accuracy of the focal length of the visible light camera 101 can be improved. In conventional vertical photography, all images are taken in the same direction, so it is not possible to uniquely determine the focal length, which is a parameter that indicates the scale in the depth direction. need to be installed. By performing oblique photography as in the present embodiment, it is possible to improve the accuracy of estimating the focal length of the visible light camera 101, and it is possible to obtain sufficiently accurate survey results without setting control points. .

図10は、無人飛行体10による撮影方向を模式的に示す側面視図である。無人飛行体10は、可視光カメラ101の撮影方向Fを鉛直下方向Pに対して所定角度α傾けて撮影を行い、撮影領域Aiの画像が撮影される。 FIG. 10 is a side view schematically showing the imaging direction of the unmanned flying object 10. As shown in FIG. The unmanned flying object 10 performs imaging by tilting the imaging direction F of the visible light camera 101 by a predetermined angle α with respect to the vertically downward direction P, and an image of the imaging area Ai is captured.

ここで、鉛直下方向Pに対する可視光カメラ101の撮影方向Fの傾きαは、10°以上30°以下とするのが好ましい。傾きαが10°未満の場合、撮影方向が鉛直下方向に近くなり、斜め撮影の効果が十分に得られない。また、傾きαが30°を超えると、撮影した画像の手前側と奥側とで1画素当たりの寸法が大きく変わり、ゆがみが大きくなり、解析精度が低下する可能性がある。 Here, the inclination α of the photographing direction F of the visible light camera 101 with respect to the vertically downward direction P is preferably 10° or more and 30° or less. If the inclination α is less than 10°, the photographing direction becomes close to the vertically downward direction, and the effect of oblique photographing cannot be sufficiently obtained. Moreover, if the inclination α exceeds 30°, the dimension per pixel will change greatly between the front side and the back side of the photographed image, resulting in increased distortion and possibly lower analysis accuracy.

<画像前処理工程>
一般に、撮影工程で撮影された画像は非圧縮でメモリ205に保存されるが、本実施例では画像前処理工程において各画像の画像サイズが縮小(例えば4分の1程度)される。 画像サイズの縮小により画像の画素数が低減して特徴点が抽出しやすくなる。特に、測量対象とする地表の起伏が乏しく地質も一様であると有意な特徴点を得にくい。そこで、本実施例では、特徴点の抽出前に画像サイズを縮小して特徴点を抽出しやすくしている。このような縮小は例えばSfM解析ソフト上で実行することができる。
<Image preprocessing step>
In general, images shot in the shooting process are uncompressed and stored in the memory 205, but in the present embodiment, the image size of each image is reduced (for example, about 1/4) in the image preprocessing process. Reducing the image size reduces the number of pixels in the image, making it easier to extract feature points. In particular, it is difficult to obtain significant feature points when the surface of the ground to be surveyed has little undulation and the geology is uniform. Therefore, in this embodiment, the image size is reduced before extracting the feature points to make it easier to extract the feature points. Such reduction can be performed, for example, on SfM analysis software.

<特徴点抽出工程>
一般に、特徴点抽出工程で各画像から抽出する特徴点の数は制限されておらず、1つの画像に対して例えば1万点程度の特徴点が抽出される。一方、このような方法では、特徴となるような地理的形状の変化がない場合でも強制的に特徴点を抽出してしまい、エラーの原因となる可能性がある。特に、起伏が乏しく地質も一様な測量領域であれば、強制的に多数の特徴点を抽出すると測量精度が低下する可能性がある。そこで、本実施例では、1つの画像から抽出する特徴点の数を制限(例えば2000個以内など)するものとした。このような制限は、例えばSfM解析ソフト上の設定を変更することで実行することができる。こうして複数の画像で共通して抽出されるような有意な特徴点を抽出することができる。
<Feature point extraction process>
In general, the number of feature points extracted from each image in the feature point extraction process is not limited, and for example, about 10,000 feature points are extracted from one image. On the other hand, in such a method, feature points are forcibly extracted even when there is no change in the geographical shape that becomes a feature, which may cause an error. In particular, in a survey area with poor undulations and uniform geology, forcibly extracting a large number of feature points may reduce survey accuracy. Therefore, in this embodiment, the number of feature points extracted from one image is limited (for example, within 2000). Such restrictions can be implemented, for example, by changing settings on the SfM analysis software. In this way, significant feature points that are commonly extracted from a plurality of images can be extracted.

以上述べたように、撮影された画像のデータサイズを縮小し、かつ特徴点の数を制限することでデータ解析に要する時間を大幅に短縮することができる。 As described above, by reducing the data size of the captured image and limiting the number of feature points, it is possible to greatly reduce the time required for data analysis.

上述したように本発明の第2実施例による自律飛行測量システム20によれば、可視光カメラ101を搭載した無人飛行体10を用い、可視光カメラ101により写真測量を行う。特に鉛直下方向に対して所定角度傾けた斜め撮影により奥行きが生じるので、高さ方向の測量精度を向上させることができる。よって、標定点を設置せずに十分な精度の測量を行うことができ、災害現場のように立ち入れない場合であっても無人飛行体10を用いた写真測量を効率的かつ精度よく行うことができる。たとえば無人飛行体10をGSD20mmに相当する高度で写真測量を行った場合、測量制度±50mm以内の高精度を達成することができる。 As described above, according to the autonomous flight survey system 20 according to the second embodiment of the present invention, the unmanned flying object 10 equipped with the visible light camera 101 is used, and the visible light camera 101 performs photogrammetry. In particular, oblique photographing at a predetermined angle with respect to the vertical downward direction produces depth, so that the accuracy of surveying in the height direction can be improved. Therefore, it is possible to carry out surveying with sufficient accuracy without setting control points, and to efficiently and accurately carry out photogrammetry using the unmanned aerial vehicle 10 even in cases where it is not possible to enter, such as at a disaster site. can be done. For example, when photogrammetry is performed on the unmanned air vehicle 10 at an altitude corresponding to a GSD of 20 mm, high accuracy within a survey accuracy of ±50 mm can be achieved.

一例として、撮影対象領域Aの測量面積を2haとし、無人飛行体10にはRTK-GNSS機能と2000万画素の高解像度可視光カメラ101とが搭載され、データ解析にSfM解析ソフト、点群編集ソフトおよび3次元CADを用いた場合、本実施例によれば。標定点の設定等の事前準備が不要となり、測量に要する作業時間を従来に比べて1/4に短縮することができた。また、第1実施例によるGPS搭載標定点を利用した基礎測量と組み合わせても事前準備からデータ解析までの一連作業の簡略化および時間短縮を達成できる。 As an example, the survey area of the imaging target area A is assumed to be 2 ha, and the unmanned flying object 10 is equipped with an RTK-GNSS function and a high-resolution visible light camera 101 of 20 million pixels, and SfM analysis software and point cloud editing are used for data analysis. According to this embodiment, when using software and three-dimensional CAD. It eliminates the need for advance preparation such as setting control points, and shortens the work time required for surveying to 1/4 of the conventional time. Moreover, even when combined with the basic survey using the GPS-equipped control points according to the first embodiment, it is possible to achieve simplification and time reduction of a series of operations from advance preparation to data analysis.

10、10a 無人飛行体
11 開閉式基地
12a、12b 開閉式ドーム
13 ベース
14 離発着ポート
15 切盛土工事現場
20 自律飛行測量システム
30 コンピュータ
100 筐体
101 可視光カメラ
200、211 プロセッサ
201 飛行制御部
202 モータ制御部
203 無線通信部
204 RTK-GNSSユニット
205 メモリ
206、210 インタフェース
10, 10a Unmanned aerial vehicle 11 Retractable base 12a, 12b Retractable dome 13 Base 14 Departure and arrival port 15 Cut and fill construction site 20 Autonomous flight survey system 30 Computer 100 Housing 101 Visible light camera 200, 211 Processor 201 Flight control unit 202 Motor Control unit 203 Wireless communication unit 204 RTK-GNSS unit 205 Memory 206, 210 Interface

Claims (10)

自律的に撮影対象領域の上空を飛行する無人飛行体と、前記無人飛行体により取得された画像データを処理する情報処理装置と、からなる自律飛行測量システムであって、
前記無人飛行体が、前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラと、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影するように制御する制御部と、を有し、
前記情報処理装置が前記カメラにより撮影された複数の画像に基づいて前記撮影対象領域の地形データを算出する、
ことを特徴とする自律飛行測量システム。
An autonomous flight survey system comprising an unmanned flying object that autonomously flies over an imaging target area and an information processing device that processes image data acquired by the unmanned flying object,
The unmanned flying object has a camera capable of photographing the photographing target area from a vertical direction or from a photographing direction tilted by a desired angle, and the photographing direction of the camera tilted by a predetermined angle from a different direction with respect to the vertical downward direction. a control unit that controls to capture a plurality of images of the target area;
The information processing device calculates terrain data of the shooting target area based on a plurality of images shot by the camera;
An autonomous flight survey system characterized by:
前記所定角度を10°以上30°以下とすることを特徴とする請求項1に記載の自律飛行測量システム。 2. The autonomous flight survey system according to claim 1, wherein the predetermined angle is between 10[deg.] and 30[deg.]. 前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、
前記情報処理装置が、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することを特徴とする請求項1または2に記載の自律飛行測量システム。
A plurality of control points are arranged in advance at predetermined intervals in the imaging target area, and each control point is equipped with a positioning function,
3. The autonomy according to claim 1, wherein said information processing device calculates terrain data of said photographing target area based on position information of said control point and a plurality of images photographed by said camera. flight survey system.
前記情報処理装置が、前記撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することを特徴とする請求項1-3のいずれか1項に記載の無人飛行体を用いた自律飛行測量システム。 The information processing device reduces the image size of each of the plurality of captured images, extracts a plurality of feature points from each of the reduced image sizes, and extracts the terrain data from the plurality of feature points. The autonomous flight survey system using the unmanned flying object according to any one of claims 1 to 3, wherein the system calculates 1つの画像から抽出される特徴点の数を所定数以下に制限することを特徴とする請求項4に記載の自律飛行測量システム。 5. The autonomous flight survey system according to claim 4, wherein the number of feature points extracted from one image is limited to a predetermined number or less. 自律的に撮影対象領域の上空を飛行する無人飛行体による自律飛行測量方法であって、
前記無人飛行体が前記撮影対象領域を鉛直方向あるいは所望角度だけ傾けた撮影方向から撮影可能なカメラを有し、前記カメラの撮影方向を設定して前記カメラにより前記測量対象領域を含む画像を複数枚撮影する撮影工程と、
前記撮影工程で撮影された複数の前記画像に基づいて、前記測量対象領域の地形データを算出する地形算出工程と、
を有し、前記撮影工程において、前記カメラの撮影方向を鉛直下方向に対して異なる方向から所定角度だけ傾けて前記撮影対象領域の複数の画像を撮影することを特徴とする自律飛行測量方法。
An autonomous flight survey method by an unmanned flying object autonomously flying over an imaging target area,
The unmanned flying object has a camera capable of photographing the object area to be photographed from a vertical direction or from a photographing direction tilted by a desired angle, and a plurality of images including the survey object area are obtained by the camera by setting the photographing direction of the camera. a photographing process of photographing,
a terrain calculation step of calculating terrain data of the survey target area based on the plurality of images captured in the photographing step;
wherein, in the photographing step, a plurality of images of the photographing target area are photographed by tilting the photographing direction of the camera from different directions with respect to the vertically downward direction by a predetermined angle.
前記所定角度を10°以上30°以下とすることを特徴とする請求項6に記載の自律飛行測量方法。 7. The autonomous flight survey method according to claim 6, wherein the predetermined angle is 10[deg.] or more and 30[deg.] or less. 前記撮影対象領域に予め所定間隔で複数の標定点が配置され、各標定点に測位機能が搭載されており、
前記地形算出工程において、前記標定点の位置情報と前記カメラにより撮影された複数の画像とに基づいて前記撮影対象領域の地形データを算出することを特徴とする請求項6または7に記載の自律飛行測量方法。
A plurality of control points are arranged in advance at predetermined intervals in the imaging target area, and each control point is equipped with a positioning function,
8. The autonomy according to claim 6, wherein in said terrain calculation step, terrain data of said photographing target area is calculated based on position information of said control points and a plurality of images photographed by said camera. Flight survey method.
前記地形算出工程において、前記撮影工程で撮影された複数の前記画像の画像サイズをそれぞれ縮小し、前記画像サイズが縮小された画像のそれぞれから複数の特徴点を抽出し、前記複数の特徴点から前記地形データを算出することを特徴とする請求項6-8のいずれか1項に記載の自律飛行測量方法。 In the terrain calculation step, the image size of each of the plurality of images captured in the photographing step is reduced, a plurality of feature points are extracted from each of the reduced image sizes, and from the plurality of feature points The autonomous flight survey method according to any one of claims 6 to 8, wherein the terrain data is calculated. 1つの画像から抽出される特徴点の数を所定数以下に制限することを特徴とする請求項9に記載の自律飛行測量方法。 10. The autonomous flight survey method according to claim 9, wherein the number of feature points extracted from one image is limited to a predetermined number or less.
JP2021140012A 2021-08-30 2021-08-30 Autonomous flight survey system and method by unmanned flying body Pending JP2023033991A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021140012A JP2023033991A (en) 2021-08-30 2021-08-30 Autonomous flight survey system and method by unmanned flying body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140012A JP2023033991A (en) 2021-08-30 2021-08-30 Autonomous flight survey system and method by unmanned flying body

Publications (1)

Publication Number Publication Date
JP2023033991A true JP2023033991A (en) 2023-03-13

Family

ID=85505022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021140012A Pending JP2023033991A (en) 2021-08-30 2021-08-30 Autonomous flight survey system and method by unmanned flying body

Country Status (1)

Country Link
JP (1) JP2023033991A (en)

Similar Documents

Publication Publication Date Title
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
CN107504957B (en) Method for rapidly constructing three-dimensional terrain model by using unmanned aerial vehicle multi-view camera shooting
JP7263630B2 (en) Performing 3D reconstruction with unmanned aerial vehicles
KR101793509B1 (en) Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
JP5947634B2 (en) Aerial photography imaging method and aerial photography imaging system
US20170300051A1 (en) Amphibious vertical take off and landing unmanned device with AI data processing apparatus
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
US11756158B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system for associating position information with captured images
KR101160454B1 (en) Construction method of 3D Spatial Information using position controlling of UAV
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
CN105758384A (en) Unmanned aerial vehicle rocking oblique photograph system
CN106094876A (en) A kind of unmanned plane target locking system and method thereof
JPWO2018198313A1 (en) Unmanned aerial vehicle action plan creation system, method and program
JP2017201261A (en) Shape information generating system
JP2021117047A (en) Photogrammetric method using unmanned flight vehicle and photogrammetric system using the same
JP6265576B1 (en) Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program
CN111699454A (en) Flight planning method and related equipment
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
CN109163718A (en) A kind of unmanned plane autonomous navigation method towards groups of building
Bailey Unmanned aerial vehicle path planning and image processing for orthoimagery and digital surface model generation
JP2023033991A (en) Autonomous flight survey system and method by unmanned flying body
WO2021014752A1 (en) Information processing device, information processing method, and information processing program
US20200307788A1 (en) Systems and methods for automatic water surface and sky detection
JP2023033988A (en) Unmanned aerial vehicle, night photogrammetry method and system