JP2022023592A - 測量システム、測量方法および測量用プログラム - Google Patents

測量システム、測量方法および測量用プログラム Download PDF

Info

Publication number
JP2022023592A
JP2022023592A JP2020126634A JP2020126634A JP2022023592A JP 2022023592 A JP2022023592 A JP 2022023592A JP 2020126634 A JP2020126634 A JP 2020126634A JP 2020126634 A JP2020126634 A JP 2020126634A JP 2022023592 A JP2022023592 A JP 2022023592A
Authority
JP
Japan
Prior art keywords
camera
uav
laser scan
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020126634A
Other languages
English (en)
Inventor
忠之 伊藤
Tadayuki Ito
剛 佐々木
Takeshi Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2020126634A priority Critical patent/JP2022023592A/ja
Priority to EP21186339.4A priority patent/EP4008997A1/en
Priority to EP23151237.7A priority patent/EP4246088A1/en
Priority to US17/443,324 priority patent/US20220026208A1/en
Priority to CN202110850440.6A priority patent/CN113984019A/zh
Publication of JP2022023592A publication Critical patent/JP2022023592A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8803Visual inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/02Mechanical
    • G01N2201/021Special mounting in general
    • G01N2201/0214Airborne

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

【課題】UAVを用いた点検や監視において、対象に対するUAVの適切な航路の設定および適切な位置からのUAVの撮影を可能とする。【解決手段】第1のカメラ、レーザースキャナ部202およびトータルステーションを複合化した測量装置200、第2のカメラ301を搭載したUAV300、第1のカメラおよび第2のカメラ301が撮影した画像データを受け付ける画像データ受付手段と、レーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付手段と、レーザースキャンデータに基づきUAV300の飛行経路を設定する飛行経路設定手段と、UAVの飛行経路における第2のカメラ301の向きを設定するカメラの向き設定部とを備える処理装置400により構成される測量システム。【選択図】図1

Description

本発明は、レーザースキャナが得た情報を利用する技術に関する。
特許文献1には、レーザー測距技術を用いてUAVの飛行制御を行う技術が記載されている。
特開2019-117127号公報
例えば、UAV(Unmanned Aerial Vehicle)を用いて橋梁の目視点検を行う技術がある。この場合、UAVの飛行経路の設定が重要となる。この技術では、橋脚や支柱等とUAVが接触せず、またそれらが撮影の障害とならず、更に要求された箇所を撮影し易い位置にUAVを飛行させる必要がある。
特許文献1の技術では、橋梁にUAVが接触しないようにする点が記載されている。しかしながら、UAVからの撮影を行うのに適した航路の設定については特許文献1に記載されておらず、また示唆されていない。
このような背景において、本発明は、UAVからの撮影を用いた点検や監視において、UAVから撮影した画像を有効に利用できる技術の提供を目的とする。
本発明は、それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載し、自律飛行が可能なUAVが取得した測量データを処理する測量データ処理システムであって、前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付手段と、前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定手段と、前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定手段とを備える測量システムである。
本発明によれば、測量装置からのレーザースキャンの結果に基づき、UAVの飛行経路と飛行中のUAV搭載のカメラの向きが設定される。このため、UAVとレーザースキャン対象との干渉の防止、UAVによる最適な撮影位置の設定、飛行中における撮影に適したUAV搭載のカメラの向きの設定が可能となる。
本発明において、前記UAVにより、前記特定の部分の撮影が行われ、前記視点の位置は、前記特定の部分を正面から見る位置である態様は好ましい。正面から見る視点をとることで、対象物の検査や劣化診断に適した画像を得ることができる。
本発明において、前記レーザースキャンデータに基づき、前記特定の部分の法線が算出され、前記視点の位置は、前記法線に基づき算出される態様は好ましい。特定の部分の法線上に視点をとることで、当該特定の部分を正面から見る視点が得られる。
本発明において、前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成部と、前記第2のカメラが撮影した画像に基づき、立体写真計測の原理により被撮影対象の3Dモデルを作成する第2の3Dモデル作成部とを備える態様が挙げられる。
本発明において、前記UAVの飛行中において、前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、前記第2の3Dモデル作成部が作成する3Dモデルは、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成する3Dモデルと同じ座標系上で作成される態様が挙げられる。
この態様によれば、当該対象物に対するUAV搭載の第2のカメラを用いたSFM(Structure from Motion:多視点ステレオ写真測量)におけるカメラの位置と姿勢が、測量装置で利用する座標系上で定義される。これにより、第2の3Dモデルが第1の3Dモデルと同じ座標系で定義される。このため、複雑な後処理なしで、第1の3Dモデルと第2の3Dモデルの比較および統合が可能となる。
また、測量装置のトータルステーション機能を用いてUAVの測位を行うことで、UAVでのGNSSの受信を必要としない。そのため、誤差の大きいUAV搭載のGNSSを利用しなくて済む。またGNSSが利用できない橋梁の下やGNSSの利用に障害が生じ易い山間部や高層ビル群等の市街地でも高い精度の計測が可能となる。
本発明において、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成した3Dモデルに前記第1のカメラが撮影した画像をマッピングするマッピング処理部を備える態様が挙げられる。
SFMの原理により、第2のカメラの位置と第2のカメラが撮影した画像中における多数の特徴点との相対位置の関係が求められ、相対的な三次元モデルが得られる(相互標定)。ここで、前記トータルステーションによる前記UAVの測位を行いことで、UAVに搭載した第2のカメラの位置が特定される。これにより、当該相対的な三次元モデルにスケールが与えられ(絶対標定)、利用する測量装置で用いる座標系上で、第2のカメラが撮影した画像中の特徴点の位置が特定される。すなわち、第1の3Dモデルを定義する座標系において、第2のカメラが撮影した画像中の特徴点の位置が特定される。
その結果、第1の3Dモデルと第2のカメラが撮影した画像の関係、すなわち第1の3Dモデルのどの部分が、第2のカメラが撮影したどの画像に対応するのか、が判明する。これにより、第2のカメラで撮影した対象物の詳細画像を第1の3Dモデルに関連付けることができ、第1の3Dモデルに第2のカメラで撮影した対象物の詳細画像をマッピングできる。例えば、第1の3Dモデルに、第2のカメラが得たより詳細なテクスチャを貼り付けることができる。
本発明において、前記マッピングとして、前記第1の3Dモデル作成部が作成した3Dモデルへの前記第2のカメラが撮影した画像の埋め込みまたは重畳が行われる態様が挙げられる。マッピングとしては、貼り付け、データ上での関連付け、吹出しや引き出し線を用いた画面表示上での関連付け等も可能である。
本発明において、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1のカメラが撮影した画像に前記第2のカメラが撮影した画像をマッピングするマッピング処理部を備える態様が挙げられる。前記マッピングとして、前記第1のカメラが撮影した画像への前記第2のカメラが撮影した画像の埋め込みまたは重畳が行われる態様が挙げられる。
本発明において、前記レーザースキャナによる測量対象物に対するレーザースキャンを行い、前記第2のカメラは、前記レーザースキャンの結果生じる前記測量対象物におけるレーザースキャン光の輝点を検出し、前記輝点に基づき、前記第2のカメラの姿勢が算出される態様が挙げられる。
例えば、レーザースキャン光の輝点の1点を第2のカメラが撮影した画像中で特定したとする。ここで、当該画像中におけるこの輝点の位置(画像中での2次元位置)、第2のカメラの焦点距離、撮影対象の3D位置が判れば、第2のカメラの姿勢を求めることができる。また、当該輝点の2点以上を特定することで、第2のカメラの位置と姿勢を求めることができる。
また、第2のカメラによる多視点ステレオ写真測量における3次元計測では、相互標定、絶対標定、バンドル調整計算が行なわれる。このバンドル調整計算時に上記の輝点を拘束点として用いることで、計算時の負担を低減させ、また計算の精度を高めることができる。
本発明は、それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載し、自律飛行が可能なUAVが取得した測量データを処理する測量データ処理方法であって、前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付ステップと、前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付ステップと、前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付ステップと、前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定ステップと、前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定ステップとを有する測量方法として把握することもできる。
本発明は、それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置と、第2のカメラを搭載し、自律飛行が可能なUAVとを用いた測量を実行するためのプログラムであって、コンピュータに前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付ステップと、前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付ステップと、前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付ステップと、前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定ステップと、前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定ステップとを実行させる測量用プログラムとして把握することもできる。
本発明は、それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載したUAVが取得した測量データを処理する測量データ処理システムであって、前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成部と、マッピング処理部とを備え、前記UAVの飛行中において、前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、前記マッピング処理部は、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成した3Dモデルに前記第1のカメラが撮影した画像をマッピングする測量システムとして把握することもできる。
本発明は、それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載したUAVが取得した測量データを処理する測量データ処理システムであって、前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成部と、マッピング処理部とを備え、前記UAVの飛行中において、前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、前記マッピング処理部は、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1のカメラが撮影した画像に前記第2のカメラが撮影した画像をマッピングする測量システムとして把握することもできる。
本発明のマッピングにおいて、前記第2のカメラは、前記UAVが飛行している状態において、前記レーザースキャンの対象に対して複数回の写真撮影を行い、前記複数回の写真撮影によって得た複数の画像中の多数の特徴点と前記第2のカメラの位置の関係および前記トータルステーションによる前記UAVの測位データに基づき、前記複数の画像それぞれにおける前記第2のカメラの位置と姿勢が求められ、前記レーザースキャンデータと前記第2のカメラの位置と姿勢の関係に基づき、前記マッピングが行われる態様は好ましい。
本発明によれば、UAVからの撮影を用いた点検や監視において、UAVから撮影した画像を有効に利用できる技術が得られる。
実施形態の概要図である。 測量装置のブロック図(A)とUAVのブロック図(B)である。 処理装置のブロック図である。 処理の手順の一例を示すフローチャートである。 処理の手順の一例を示すフローチャートである。
(概要)
図1に発明を利用したシステムの概要を示す。図1には、橋梁100、測量装置200、UAV300および処理装置400が示されている。橋梁100は、目視メンテナンスの対象となるインフラ設備の一例である。測量装置200は、トータルステーションとレーザースキャナを複合化した構成を有する。UAV300は、橋梁100の詳細画像の撮影を行うための飛行を行う。
処理装置400は、測量装置200が得た測量データに基づき、UAV300の飛行計画を作成する。この飛行計画には、飛行ルートと飛行中におけるUAV300からの撮影方向(カメラ301の向き)の計画が含まれる。また、処理装置400は、測量装置200が得た橋梁100の画像および3Dモデルと、UAV300から撮影した橋梁の詳細画像を統合して処理する。カメラ301の向き(姿勢)は、飛行するUAV300の向きから求められる。よって、飛行中におけるUAV300の姿勢を決めることで、カメラ301の向きを決めることができる。なお、UAV300の向きは、IMUにより計測される。
処理装置400は、市販のPC(パーソナル・コンピュータ)を用いて構成され、無線LAN等の適当な通信手段により、測量装置200とデータのやり取りが行われる。測量装置200は、レーザースキャンデータ、内蔵するカメラが撮影した画像データ、およびUAV300を対象に行った測位データを処理装置400に送る。また、UAV300が撮影した撮影データおよび飛行ログのデータは、処理装置400に送られる。
(測量装置)
図1には、測量装置200の外観が示され、図2(A)には、測量装置200のブロック図が示されている。測量装置200は、トータルステーションとレーザースキャナを複合化させた構造を有する。この形態の測量装置としては、特開2019-117127号公報、特開2019-100915号公報、特開2019-90653号公報に記載されたものが公知である。
図2(A)に示すように、測量装置200は、カメラ201、レーザースキャナ部202、トータルステーション部203を備える。図1に示すように、測量装置200は、三脚210の上部に固定されたベース部211、ベース部211に水平回転が可能な状態で結合された水平回転部212、水平回転部212に鉛直面内での回転(仰角および俯角方向への回転)が可能な状態で結合した鉛直回転部213、水平回転部212の上部に固定されたレーザースキャナ部202を備えている。
カメラ201は、鉛直回転部213の内部に納められている。カメラ201の光学系は、後述する望遠鏡214とは別に配置されている。カメラ201の向きは、望遠鏡214と同じ方向を向き、望遠鏡214の光軸中心(トータルステーション部203の光軸中心)中心とした広角画像を撮影する。カメラ201の撮像部は、CCDやCMОSイメージセンサにより構成されている。
鉛直回転部213は、光学系である望遠鏡214を備えている。望遠鏡214は、トータルステーション部203の光学系としても利用されている。ユーザは、望遠鏡214を介して、トータルステーション部203の視準作業を行うことができる。この例では、カメラ201の光学系は、望遠鏡214と別に用意されているが、望遠鏡214を介してカメラ201による撮像を行う形態も可能である。この場合、カメラ201、望遠鏡214およびトータルステーション部203で光学系が一部共用される。
レーザースキャナ部202は、望遠鏡214の光軸を含む鉛直面内におけるレーザースキャンを行う。レーザースキャナ部202は、水平方向を回転軸として回転するミラーを備え、このミラーを回転させながら、このミラーで発光部からの連続パルス光を反射させることで、上記の鉛直面内におけるレーザースキャン光の放射が行われる。また、反射物から反射されてきたスキャンパルス光は、上記のミラーに入射し、受光部で受光される。水平回転部211を回転させながら上記のレーザースキャンを行うことで、全周スキャンや特定の対象物に対するレーザースキャンが行われる。
トータルステーション部203は、レーザー測距光を発光する発光部、発光部からの光の分岐光が導かれる基準光路、測位対象物から反射されたレーザー測距光および基準光路を伝搬した基準光を受光する受光部、測距光と基準光の受光タイミングの差(位相差)に基づき、測距を行う測距部を備える。また、水平回転部211の水平回転角と鉛直回転部213の鉛直回転角は、エンコーダーにより精密に計測され、その計測値と測距値に基づき、トータルステーション部202による測位対象物の測位が行われる。
レーザースキャナ部202の基本構造およびレーザースキャン点群の取得の原理、更にトータルステーション部203の基本構造および測位の原理は、特開2019-117127号公報、特開2019-100915号公報、特開2019-90653号公報に記載されたトータルステーションとレーザースキャナを複合化させた測量装置と基本的に同じである。
カメラ201、レーザースキャナ部202およびトータルステーション部203の外部標定要素(位置と姿勢)の関係は、事前に取得されており、既知とされている。測量装置200では、カメラ201のカメラ座標系の原点(カメラ201の投影原点)が機械原点として設定されている。この機械原点を原点とするローカル座標系において、レーザースキャナ部202が得たレーザースキャン点群、およびトータルステーション部202により測位した点の3次元座標が記述される。
(UAV)
図2(B)には、UAV300のブロック図が示されている。UAV300は、カメラ301、GNSS位置測定装置302、IMU303、飛行制御装置304、飛行計画記憶部305、カメラの向き制御部306、飛行ログ記憶部307および画像データ記憶部308を備えている。またUAV300は、飛行に必要なプロペラ、該プロペラを駆動するモータ、該モータに電力を供給するバッテリーおよび無線通信装置を備える。UAV300の基本的な構成は、通常のUAVと同じである。
カメラ301は、静止画および動画の撮影が可能である。UAV300の機体本体に対するカメラ301の外部標定要素(位置と姿勢)は予め求められ、既知である。また、カメラ301と後述の反射プリズム309の位置関係(オフセット位置関係)も予め求められ既知となっている。
この例では、UAV300の機体の姿勢を変えることで、カメラ301の向きを制御する。UAV300の機体に対して、モータ等の駆動機構を利用してカメラ301の向き(姿勢)を可変する構造も可能である。
GNSS位置測定装置302は、GPS衛星に代表される航法衛星からの航法信号に基づいた測位を行う。測位は、絶対測位または相対測位により行われる。IMU303は、慣性計測装置であり、UAV300に加わる加速度、およびUAV300の姿勢の変化を検出する。
飛行計画記憶部305は、飛行に先立って設定した飛行計画を記憶する。飛行計画には、UAV300の飛行経路、および該飛行経路におけるUAV300の姿勢(カメラ301の姿勢)が含まれている。UAV300の飛行経路と姿勢は、測量装置200の機械原点を原点としたローカル座標系で記述される。座標系として、絶対座標系を用いることもできる。絶対座標系は、GNSSで利用される座標系であり、例えば、緯度、経度、標高によって三次元位置が記述される。飛行計画に時間情報を加えることも可能である。
飛行制御装置304は、飛行計画記憶部305に記憶された予定飛行ルートに従って飛行するUAV300の飛行制御を行う。UAV300は、飛行計画に従った自立飛行が可能である。勿論、オペレータが行うマニャアル操作による飛行も可能である。
カメラの向き制御部306は、飛行計画記憶部305に記憶された飛行ルートとカメラの向きの関係を定めた飛行計画に従って、カメラ301の向きの制御を行う。オペレータが行うマニャアル操作によるカメラ301の向きの制御も可能である。
飛行ログ記憶部307は、飛行の記録に係るデータ、具体的には、時刻と飛行位置および機体の姿勢の関係が記憶される。画像データ記憶部308には、カメラ301が撮影した画像の画像データが記憶される。画像データは、撮影時刻、撮影時のカメラ301の位置および撮影時のカメラ301の向きと関連付けられて、画像データ記憶部308に記憶される。
UAV300は、ジンバル機構を備え、そこにカメラ301および反射プリズム309を備える。UAV300における反射プリズム309の位置、および反射プリズム309とカメラ301の位置の関係は、既知である。このため、測量装置200のトータルステーション部203によって、反射プリズム309の位置を測位することで、UAV300の位置およびカメラ301の位置を求めることができる。反射プリズム309をターゲットとして、測量装置200のトータルステーション部203によるUAV300の追尾と測位を行う技術については、例えば特開2019-45425号公報、特開2019-138842号公報に記載されている。
(処理装置)
図3には、処理装置400のブロック図が示されている。この例において、処理装置400は、市販のPC(パーソナル・コンピュータ)を用いて構成されている。利用するPCは、CPU、メモリ、ハードディスク装置、液晶表示装置等のディスプレイ、キーボードやマウス等の各種のユーザーインターフェース、各種の入出力インターフェース、その他通常のPCが備える装置や機能を有している。
このPCには、図3に示す機能部を実現するためのアプリケーションソフトウェアプログラムがインストールされ、図3に示す処理装置400がソフトウェア的に実現されている。処理装置400の一部または全部を専用の電子回路で構成することも可能である。例えば、FPGAを用いて、処理装置400の一部または全部を構成することも可能である。また、インターネット回線に接続されたデータ処理サーバを用いて処理装置400の一部または全部を構成することも可能である。
処理装置400は、画像データ受付部401、レーザースキャンデータ受付部402、レーザースキャンデータに基づく3Dモデル作成部403、指定位置受付部404、指定された位置の三次元座標の取得部405、飛行計画設定部406、カメラの向き設定部407、トータルステーションによる測位データ受付部408、UAV300から撮影した画像に基づく3Dモデル作成部409、測量装置取得画像へのUAV取得画像の埋め込み(重畳)処理部410、および測量装置が得た3DモデルへのUAV取得画像の埋め込み(重畳)処理部411を有する。
画像データ受付部401は、測量装置200のカメラ201が撮影した画像の画像データ、およびUAV300のカメラ301が撮影した画像の画像データを受け付ける。カメラ301が撮影した画像のデータは、撮影時刻、撮影時におけるカメラ301の向き、測量装置200が測位したUAV300の位置、およびIMU303が計測したUAV300の姿勢のデータに関連付けされて処理装置400内の適当な記憶領域に記憶される。レーザースキャンデータ受付部402は、測量装置200のレーザースキャナ部202が得たレーザースキャンデータ(レーザースキャン点群のデータ)を受け付ける。
レーザースキャンデータに基づく3Dモデル作成部403は、レーザースキャナ部202が得たレーザースキャンデータに基づき、レーザースキャン対象の3Dモデル(測量装置視点(ローカル座標系)3Dモデル)を作成する。この例では、レーザースキャナ部202が得たレーザースキャンデータに基づき、橋梁100の3Dモデルを作成する。
レーザースキャンデータに基づく3Dモデルの作成については、例えば、国際公開番号WO2011/070927号公報、特開2012-230594号公報、特開2014-35702号公報に記載されている。レーザースキャン点により構成される点群データ(レーザースキャン点群)を3Dモデルとして扱うことも可能である。
指定位置受付部404は、測量装置200が取得した画像中からユーザにより指定された指定位置の情報を受け付ける。この例では、処理装置200を構成するPCのディスプレイにカメラ201が撮影した橋梁100の画像が表示される。これを見て、ユーザは、当該PCの入力インターフェースを利用して、測量装置200が取得した画像中における特定の位置を指定する。この指定された画像中の特定の位置の情報(画面座標値)が指定位置受付部404で受け付けられる。
例えば、上記の指定により、ユーザが詳細画像を所望する橋梁100の特定の部分が指定される。この指定を受け、後述するように、上記詳細画像を得るための飛行経路がレーザースキャンによって得た3Dモデルに基づき作成される。そして、上記指定された箇所の詳細画像の撮影がUAV300を利用して行われる。
指定された位置の三次元座標の取得部405は、指定位置受付部404で受け付けられた特定の位置の三次元座標を取得する。カメラ201とレーザースキャナ部202の外部標定要素の関係は既知であり、カメラ201が撮像した画像中に、レーザースキャナ部202が取得したレーザースキャンデータ(レーザースキャン点群)を重畳し、画像と点群の合成画像を得ることができる。この合成画像中の特定の位置が指定された場合、この指定位置に最も近いレーザーキャン点の3次元座標を、当該指定位置の3次元座標として取得する。この処理が指定された位置の三次元座標の取得部405で行われる。
ユーザによる位置の指定は、1ポイントに限定されず、複数ポイントであってもよい。また、広がりを持った領域(エリア)を指定することもできる。
飛行計画設定部406は、UAV300の飛行計画を設定する。この飛行計画には、UAV300の飛行予定ルートと、該飛行予定ルートにおけるカメラ301の向きに係る設定が含まれる。
飛行ルートの設定は、以下のようにして行われる。まず、指定された位置の三次元座標の取得部405が取得したユーザが指定した特定の位置の3次元座標を取得する。次に、当該指定された位置の撮影に適したUAV300の位置(カメラ301の位置)を撮影位置として算出する。
所定のエリアを対象に飛行ルートの設定を行うこともできる。例えば、橋梁100の特定のエリアが撮影対象として指定された場合に、この指定されたエリアを不足無く撮影できる飛行ルートの設定が可能である。また、例えば対象の特定の部位(例えば、橋梁の脚部)を指定し、そこを撮影する飛行ルートを設定する形態も可能である。
撮影を行うためのUAV300の位置の精度は大凡で良い。なぜなら、UAV300は、搭載する反射プリズム309の位置がトータルステーション部203によって精密に継続して測位され、そこからカメラ301の光学位置がオフセットパラメータから算出されるからである。勿論、撮影を行うためのUAV300の位置を高い精度で定めてもよい。
例えば、指定された位置を正面に見る視点の位置を撮影位置として算出する。この際、飛行するUAV300が橋梁100と干渉せず、且つ、予め定めた解像度の詳細画像が得られるUAV300の位置(カメラ301の位置)を撮影位置として算出する。ここで、撮影位置は、カメラ301の光学原点の位置とする。
詳細画像は、コンクリート面の腐食、はがれ、割れといった現象を把握するための画像であり、測量装置200が撮影した画像に比較すると、接写画像となる。カメラ301による撮影の撮影距離の目安としては、5m~10m程度が選択される。勿論、もっと近接してもよいし、離れてもよい。
カメラ301の向きの設定に当たっては、指定された位置を正面から見る撮影位置(視点の位置)を求める。具体的には、3Dモデル作成部403が作成した3Dモデルに基づき、指定された位置の法線を求め、この法線上で撮影位置を決める。なお、橋梁100との干渉が問題となる場合は、干渉が問題とならず、且つ、上記法線に極力近い位置を撮影位置として定める。
例えば、3Dモデルは、レーザースキャンデータから面およびTINを算出することで作成されている。上記の法線は、上記3Dモデルの面の法線、あるいはTINで表現される対象にフィッティングする面を算出し、その面の法線を求めることで得られる。
そして、算出したUAV300の撮影位置を通る飛行ルートを予定飛行ルートとして設定する。撮影位置が複数ある場合は、それをつないで飛行ルートを設定する。以上の処理が飛行計画設定部406で行われる。
また、飛行計画設定部406は、UAV300の飛行中におけるカメラ301の向きの設定も行う。この処理がカメラの向き設定部407で行われる。
カメラの向き設定部407では、まず、予定飛行ルート上の点とその点から見た橋梁の方向を算出する。この際、指定位置受付部404が受け付けた位置が撮影範囲に入るように留意する。
予定飛行ルートの座標と橋梁の3次元モデルの座標は、同一の座標系(この例では、測量装置200を原点とするローカル座標系)上で記述されている。よって、UAV300(正確にはカメラ301)から見た橋梁100の方向は、UAV300(カメラ301)を始点、撮影対象位置を終点とするベクトルを求めることで数学的に算出することができる。この処理により、飛行するUAV300が飛行中にどの方向にカメラ301を向ければよいのかが設定される。
トータルステーションによる測位データ受付部408は、トータルステーション部203が測位したUAV300の測位データを受け付ける。この例では、UAV300の飛行中において、トータルステーション部203は、UAV300が備える反射プリズム309を追尾し、測位し続ける。この測位データが、飛行中のUAV300の位置として、トータルステーションによる測位データ受付部408で受け付けられる。
UAVから撮影した画像に基づく3Dモデル作成部409は、SFM(Structure from Motion:多視点ステレオ写真測量)や写真測量の原理に基づき、カメラ301が撮影した画像に基づく撮影対象の3Dモデルの作成を行う。
UAV画像から3Dモデルを作成する場合、ステレオ写真画像が得られるように撮影間隔を設定する。具体的には、時間軸上で隣接または近接する画像において、重複する撮影部分があるように撮影の間隔が設定される。これは、通常の航空写真測量における撮影の仕方と同じである。なお、動画を撮影し、この動画のフレーム画像を静止画像として利用することもできる。なお、ステレオ写真計測を行わず、UAVからの撮影だけを行う場合は、撮影ポイントでシャッターが切られるように撮影のタイミングが設定される。
上記の連続写真画像において、時間軸上で隣接または近接する複数の画像(基本は、2枚の画像)をステレオ写真画像として選択する。そして、このステレオ写真画像からオルソ画像を作成し、オルソ画像とされたステレオ写真画像からの特徴点の抽出、該ステレオ写真画像間の特徴点の対応関係の特定を行う。更に、交会法を用いた上記対応点の三次元座標の算出、三次元座標が特定された対応点を利用した3Dモデルの作成が行われる。この処理が「UAVから撮影した画像に基づく3Dモデル作成部409」で行われる。
上記の前方交会法では、カメラ301の位置として、トータルステーションによる測位データ受付部408が受け付けた反射プリズム309の測位データが用いられ、カメラ301の姿勢(向き)のデータとして、UAV300に搭載のIMU303のデータが用いられる。
以下、「UAVから撮影した画像に基づく3Dモデル作成部409」で行われる処理についてその詳細な一例を説明する。まず、得られた画像群からレンズ歪等の補正を施したステレオ写真を抽出する。次に、このステレオ写真画像から特徴点を抽出し、更にステレオ写真画像間で抽出した特徴点の対応関係の特定を行う。ステレオ写真画像の組は多数あり、これら全てについて同様な処理を行う。
そして、カメラ301の位置(視点位置)と各特徴点の位置の相対位置を特定する相互標定が行なわれる。相互標定により、カメラ301の位置と各特徴点によって構成される相対3次元モデルが得られる。ここで、UAV300は移動しているので、各画像に対応してカメラ301の位置は複数ある。このカメラ301の複数の位置それぞれに、トータルステーション部203が測位したUAV300の測位データ(反射プリズム309の測位データ)を入力する。この際、カメラ301と反射プリズム309の位置関係が既知であるので、その関係をオフセットパラメータとして計算式に組み入れておく。
上記の処理により、相互標定により得られた相対3次元モデルにスケール(実寸法)が与えられ、相対3次元モデルが寸法をもった三次元モデルとなる。この結果、カメラ301の複数の位置と各特徴点の座標値が与えられた3次元モデルが得られる。この処理が絶対標定である。
この絶対標定で与えられるカメラ位置の座標値は、トータルステーション部203が測位したUAV300の測位データ(反射プリズム309の測位データ)であり、それは、測量装置200が扱う座標系(測量装置200の機械原点を原点とするローカル座標系)を用いている。よって、上述したカメラ301の複数の位置と各特徴点の座標値が与えられた3次元モデルは、測量装置200が扱う座標系、すなわち測量装置200の機械原点を原点とするローカル座標系で記述される。
また、この絶対標定により、各画像の撮影時における当該座標系(測量装置200の機械原点を原点とするローカル座標系)におけるカメラ301の外部標定要素(位置と姿勢)が確定する。絶対標定の後、バンドル調整計算が行なわれ、パラメータの最適化が行なわれる。
そして、位置が特定された多数の特徴点に基づき、UAV視点の3Dモデルが作成される。このUAV視点の3Dモデルは、測量装置200の機械原点を原点とするローカル座標系で記述される。
ステレオ写真画像から撮影対象の3Dモデルを作成する技術については、例えば、特開2013-186816号公報に記載されている。また、カメラを搭載したUAVをトータルステーションを用いて測位し、当該UAVから撮影した画像を利用したSFM(Structure from Motion:多視点ステレオ写真測量)を行う技術については、特開2019-45425や特開2019-138842号公報に記載されている。位置が特定された多数の特徴点は、点群データと呼ばれるが、この点群データをUAV視点の3Dモデルとして取り扱うこともできる。
なお、予め設置状態における測量装置200の絶対座標系での位置が特定されていれば、上記のUAV視点の3Dモデルは、絶対座標系で記述される。また、ローカル座標系の原点が測量装置200の機械原点でない場合も有り得る。
上述のように、UAV視点の3Dモデルは、レーザースキャナ部202が得たレーザースキャンデータに基づく3Dモデル(測量装置視点3Dモデル)と同一座標系上で記述される。それ故、これら2つの3Dモデルを比較する際に、座標系の位置合わせに係る後処理を必要としない。ただし、UAV視点の3Dモデルと測量装置視点3Dモデルの整合性の精度向上のために微調整をすることは可能である。
測量装置取得画像へのUAV取得画像の埋め込み処理部410は、カメラ201が撮影した測量装置取得画像に、カメラ301が撮影したUAV取得画像をマッピングする処理を行う。ここでは、測量装置取得画像に、UAV取得画像を埋め込む処理および/または重畳させる処理を行う。
以下、上記のマッピングの原理について説明する。ここでカメラ301(第2のカメラ)は、UAV300が飛行している状態において、レーザースキャナ部202によるレーザースキャンの対象である橋梁100に対して複数回の写真撮影を行う。ここで、この複数回の写真撮影によって得た複数の画像を用いた多視点ステレオ写真測量を行うことで、当該複数の画像中における多数の特徴点とカメラ301の位置および姿勢の相対関係が定まる(相互標定)。そしてこの相対関係に、トータルステーション部203によるUAV300の測位データを与えることで(絶対標定)、前記複数の画像それぞれにおけるカメラ301の位置と姿勢が求められる。そして、このカメラ301の位置および姿勢と、前記レーザースキャンにより得たレーザースキャンデータとの関係に基づき、マッピングが行われる。この原理は、後述する測量装置が得た3DモデルへのUAV取得画像のマッピングも同じである。
例えば、特定のあるUAV取得画像に着目する。このUAV取得画像の撮影時におけるカメラ301光軸の方向は、当該画像の撮影時におけるカメラ301の外部標定要素から判る。ここで、この外部標定要素は、カメラ301が撮影したステレオ写真画像中の多数の特徴点とカメラ301の相対位置関係に、トータルステーション部203が測位したUAV300の位置のデータを与えることで求められる。
また、レーザースキャナ部202が得たレーザースキャンデータから、カメラ201が撮影した測量装置取得画像の3次元位置は判る。よって、カメラ301の光軸とカメラ201が撮影した測量装置取得画像の交点の位置を求めることができる。これにより、測量装置取得画像のどの部分に上記UAV取得画像が位置するのかが判る。このことを利用して、測量装置取得画像にUAV取得画像をマッピングすることができる。
測量装置取得画像へのUAV取得画像の埋め込みを行うことで、例えば、測量装置取得画像の表示画面中において、ユーザが測量装置取得画像の特定の部分を指定すると、その部分のUAV取得画像が詳細画像あるいは拡大画像として表示される。この表示形態を利用することで、拡大画像を用いた橋梁100の目視点検を効率よく、且つ、効果的に行うことができる。
測量装置が得た3DモデルへのUAV取得画像の埋め込み(重畳)処理部411は、レーザースキャナ部202が得たレーザースキャンデータに基づく3Dモデル(測量装置視点3Dモデル)へのUAV取得画像のマッピングを行う。ここでは、マッピングとして、測量装置視点3DモデルへのUAV取得画像の埋め込み、および/または重畳を行う。
以下、具体的な一例を説明する。例えば、特定のあるUAV取得画像に着目する。このUAV取得画像の撮影時におけるカメラ301光軸の方向は、UAV取得画像を用いたSFM(Structure from Motion:多視点ステレオ写真測量)や写真測量での処理の過程で得られるカメラ301の外部標定要素から判る。すなわち、この外部標定要素は、カメラ301が撮影したステレオ写真画像中の多数の特徴点とカメラ301の相対位置関係に、トータルステーション部203が測位したUAV300の位置のデータを与えることで求められる。
ここで、カメラ301の光軸と、レーザースキャナ部202が得たレーザースキャンデータに基づく3Dモデル(測量装置視点3Dモデル)の交点を求めることができる。これにより。測量装置視点3Dモデルのどの部分にUAV取得画像が対応するのかが判る。このことを利用して、測量装置取得画像にUAV取得画像をマッピングすることができる。
測量装置視点3DモデルへのUAV取得画像のマッピングとしては、(1)データ上で関連付けさせておき、UIが操作されることで、測量装置視点3Dモデルに関連付けさせてUAV取得画像を表示できるようにしておく形態、(2)測量装置視点3Dモデルの表示画面の各部に吹き出しや引き出し線を設け、そこにUAV取得画像を関連させて表示させる形態、(3)測量装置視点3Dモデルの表示画面上におけるカーソルの部分に当該部分に対応するUAV取得画像を表示させる形態等が挙げられる(カーソルを動かすと、対応するUAV取得画像が次々と表示される)。
(処理の一例)
ここでは、橋梁のメンテナンスに係り、画像から目視で検査や劣化診断を行う場合に、本発明を適用する例を説明する。この例では、最終的にUAVから橋梁細部の詳細画像を撮影し、それをユーザ(メンテナンスを担当する作業者)が目視で確認することで、橋梁の目視点検が行われる。
図1には、処理が行なわれる状況の一例が記載されている。ここでは、測量装置200を利用して橋梁100のレーザースキャンおよび撮影による画像の取得を行う。次に、測量装置200が得た橋梁100のレーザースキャンデータおよび画像データが処理装置400で処理され、処理装置400において、UAV300の飛行ルートの設定およびUAV300からの橋梁100の撮影に必要な各種の設定が行われる。この設定に基づき、UAV300は、飛行を行い、橋梁100のメンテナンスに必要な詳細画像(拡大画像)の取得を行う。その後、処理装置400において、UAV300から撮影した画像に基づく3Dモデルの作成、この3Dモデルと測量装置200が得たレーザースキャンデータに基づく3Dモデルとの対応関係の特定、更にUAV300から撮影した画像の測量装置200から撮影した画像へのマッピング、更に測量装置200が得た橋梁100のレーザースキャンデータに基づく3DモデルへのUAV300から撮影した画像のマッピングが行われる。
(詳細画像の撮影までの処理)
以下、UAV300から橋梁100の詳細画像を撮影するまでの処理の概要を説明する。図4は、測量装置200による橋梁100のレーザースキャンから、UAV300による橋梁100の詳細画像を取得するまでの処理の流れを示すフローチャートである。
なお、処理装置400において行われる処理を実行するためのプログラムは、適当な記憶領域や記憶媒体に記憶され、処理装置400のCPUによって実行される。これは、図4以外のフローチャートについても同じである。
まず、橋梁100を見渡せる場所に測量装置200を設置する。そして、測量装置200のレーザースキャン機能を用いて橋梁100に対するレーザースキャンを行う。この処理により、橋梁100のレーザースキャンデータ(レーザースキャン点群)が得られる。ここで得られるレーザースキャンデータの三次元座標は、測量装置200の機械原点を原点とするローカル座標系で記述される。もちろん、絶対座標系(グローバル座標系)における測量装置200に係る外部標定要素が既知であれば、上記レーザースキャン点群を、絶対座標系で記述することも可能である。
測量装置200で得られたレーザースキャンデータは、処理装置400に送られ、処理装置400のレーザースキャンデータ受付部401で受け付けられる(ステップS101)。
次に、ユーザ(メンテナンス実施担当者)は、測量装置200を操作し、その望遠鏡214を用いて、橋梁100における目視メンテナンスを行いたい場所を視準し、カメラ201による撮影を行う。
カメラ201が得た画像データは、処理装置400に送られ、処理装置400の画像データ受付部401で取得される(ステップS102)。
次に、処理装置400は、ステップS101で得たレーザースキャンデータに基づき、橋梁100の3Dモデルを作成する(ステップS103)。この処理は、レーザースキャンデータに基づく3Dモデル作成部403で行われる。
また、処理装置400は、ステップS102で得た画像とステップS101で得たレーザースキャンデータを重畳した合成データを得、両者の対応関係を特定する(ステップS104)。これにより、カメラ201が撮影した画像中の画面座標(画面中の2次元位置)の3次元位置を、レーザースキャンデータに含まれる点の3次元座標値から知ることができる。
ステップS102で得た画像は、処理装置400のディスプレイ、あるいは適当なディスプレイ上に表示される。ユーザは、この表示された画像を見て、詳細画像を得たい部分を指定する。例えば、カーソルやタッチペンを用いて、上記の表示された橋梁100の画像の特定の部分を指定する。この指定に係る情報は、処理装置400を構成するPCのUI(ユーザーインターフェース)により読み取られ、処理装置400の指定位置受付部404で受け付けられる(ステップS105)。ユーザに指定される位置は、一カ所でもよいし、複数個所であってもよい。また、連続した広がりを持った領域が指定される形態も可能である。
ユーザが要求する詳細画像の位置の指定を受けた処理装置400は、この指定された位置の情報に基づき、UAV300の飛行計画の設定を行う。飛行計画の設定では、飛行ルートの設定(ステップS106)と、飛行中におけるカメラ201の向きの設定(ステップS107)が行われる。
ステップS106では、ユーザにより指定された橋梁100の特定の位置を撮影する視点(カメラ位置)の点を通過点あるいは到達点とするUAV300の予定飛行ルートの設定が行われる。この処理は、飛行経路設定部406で行われる。
ステップS107では、ステップS106で設定された予定飛行ルートに関連付けさせて、UAV300のカメラ301の向き(撮影方向)の設定が行われる。つまり、飛行中にどの方向にカメラ301を向ければよいのかについての設定が行われる。この処理は、カメラの向き設定部407で行われる。
UAV300の予定飛行ルートおよび飛行中におけるカメラ301の向き(撮影方向)の設定が済んだら、この設定に従ってUAV300を飛行させる(ステップS108)。この飛行中において、設定された方向にカメラ301が向けられ、特定の間隔で静止画像の撮影が連続して行われる。飛行中におけるカメラ301の撮影動作は、ユーザが操作することもできる。
この例において、UAV300は、飛行しながら、カメラ301により、橋梁100を対象に、0.5秒間隔や1秒間隔といった特定の間隔で静止画像の撮影を繰り返し行う。撮影のタイミングは、時間軸上で隣接または近接する画像中で重複する部分が写るように設定される。これは、通常の航空写真測量における撮影の仕方と同じである。
カメラ301により動画を撮影する形態も可能である。例えばUAV300を飛行させながら、カメラ301を用いて30フレーム/秒や60フレーム/秒の動画の撮影を行う。この場合、時間軸上から適当な間隔で複数のフレーム画像が抽出され、この抽出した複数のフレーム画像を利用してステレオ画像を作成する。
(3Dデータに係る処理)
以下、測量装置200が得た3DデータとUAV300が撮影した画像から得た3Dデータに係る処理を説明する。図5は、処理の手順の一例を示すフローチャートである。
まず、処理装置400は、UAV300のカメラ301が撮影した画像の画像データを取得する(ステップS201)。この処理は、画像データ受付部401で行われる。この画像データの取得は、UAV300の飛行終了後に行われる。この画像データを飛行中のUAV300から無線で伝送する形態も可能である。
カメラ301からの画像データを取得したら、この画像データに基づき、SFM(Structure from Motion:多視点ステレオ写真測量)や写真測量により、撮影対象である橋梁100の3Dモデルを作成する(ステップS202)。この処理は、UAVから撮影した画像に基づく3Dモデル作成部409で行われる。動画像を用いたSFMにより、3Dモデルを作成することもできる。この場合、動画像を構成する多数のフレーム画像を利用して、SFMが行なわれる。
ステップS202を行うことで、橋梁100の3Dモデルが作成される。ここで、この3Dモデルとなる画像は、橋梁100に近づいて撮影した画像であり、作成される3Dモデルは、橋梁100の部分的な3Dモデルとなる。
また、ここでは、少しずつ位置がずれた多数の3Dモデルが得られる。そして、それらを繋げることで、UAV300の飛行経路に沿った、橋梁100における帯状の領域の3Dモデルが得られる。この3DモデルがUAV視点の3Dモデルとなる。
UAV視点の3Dモデルは、ステップS103で作成した3Dモデル(以下、測量装置視点3Dモデル)と同じ座標系で記述されている。これは、UAV300(カメラ301の位置)の測位が測量装置200で行われ、それを用いてSFMによるUAV視点の3Dモデルの作成が行なわれるからである。2つの3Dモデルは同じ座標系上で定義されるので、測量装置視点3Dモデルとの対応関係が特定された状態でUAV視点の3Dモデルが得られる。また、UAV視点の3Dモデルを作成することで、UAV視点の3Dモデルと測量装置視点3Dモデルを統合したものが自動的に得られる。
よって、これら2つの3Dモデルの間の対応関係の特定に係る処理は特に必要とされない。なお、オプションとして、誤差の大きい点などの削除等による微調整を行い、両3Dモデルの対応関係の精度を高めてもよい。
次に、測量装置200から撮影した橋梁100の画像に、UAV300から撮影した橋梁100の画像(UAV取得画像)を埋め込む処理を行う(ステップS203)。この処理は、「測量装置取得画像へのUAV取得画像の埋め込み(重畳)処理部410」によって行われる。埋め込みでなく、重畳する処理も可能である。
前述したように、特段の後処理なしで、測量装置200から撮影した橋梁100の画像(測量装置取得画像)と、UAV300から撮影した橋梁100の画像(UAV取得画像)との対応関係は特定できる。
一般に、前者の画像(測量装置取得画像)は、相対的に遠距離から橋梁100撮影したワイド画像(広角画像)であり、後者の画像(UAV取得画像)は、相対的に近接した位置から橋梁100を撮影した拡大画像である。そこで、上記の対応関係を利用して、前者のワイド画像に後者の拡大画像を埋め込む。この処理がステップS203において行われる。
なお、測量装置200から撮影した橋梁100の画像と、UAV300から撮影した橋梁100の画像との対応関係の微調整を行い、その精度をさらに高める処理も可能である。
この埋め込み画像を得ることで、例えば、地上に設置した測量装置200から撮影した画像中の特定の部分をユーザが指定した場合に、その拡大画像(UAV取得画像)をPC画面上に表示させるといったUI(ユーザーインターフェース)を実現できる。このUIを利用することで、橋梁100の目視点検を効率よく、また的確に行うことができる。
また、ステップS203で得られた画像を用いることで、測量装置取得画像を表示させている状態で、特定の部分の拡大倍率を上げてゆくと、ある段階からUAV取得画像に切り替わるUIを実現することもできる。
ステップS203の後、測量装置200によるレーザースキャンによって得た3Dモデル(測量装置視点3Dモデル)へのUAV取得画像の埋め込み(または重畳)が行われる(ステップS204)。この処理では、当該3Dモデル各部と、そこに対応するUAV取得画像とを関連付けさせたデータが得る。この処理は、「測量装置が得た3DモデルへのUAV取得画像の埋め込み(重畳)処理部411」において行われる。当該3DモデルへのUAV取得画像の貼り付けも可能である。
例えば、測量装置200が得た3DモデルにUAV取得画像を埋め込んだデータを得たとする。この場合、当該3Dモデルを画面に表示させた状態において、ユーザにより、当該3Dモデルの特定の場所が指定されると、その場所のUAV取得画像が表示されるUIを実現することができる。
(適用対象)
本発明が利用できる対象は、橋梁に限定されず、建物、高架橋、プラント設備、コンクリートで補強された崖や法面、ダム、高速道路、鉄道、アミューズメント設備、スポーツ関連設備(各種競技場や球技場)、その他各種のインフラ設備等が挙げられる。
(レーザースキャン光の利用形態)
測量装置200のトータルステーション機能を用いてのUAVの追尾および測位と同時に、測量装置200のレーザースキャン機能を実行することができる。ここでは、このレーザースキャンの輝点(対象物におけるスキャンレーザー光の反射点)をUAV300に搭載したカメラ301の位置と姿勢の算出に利用する例を説明する。
例えば、カメラ301のシャッタースピードが1秒/100で、レーザースキャンのスキャン周波数が1kHzの場合、カメラ301が撮影した1枚の撮影画像中で最大で10点のレーザースキャン点が写ることが可能である(撮影範囲とスキャンスピードの関係で、10点以下となる場合も有り得る)。
なお、この形態は、レーザースキャナ部202によるレーザースキャンの範囲がカメラ301の撮影範囲と重なる場合に限定される。また、カメラ301は、測量装置200からのレーザースキャン光の波長を検出でき、また短パルス光である当該レーザースキャン光の輝点を画像中で捉えることができる機能が必要となる。
具体的には、以下の処理が行われる。まず、UAV取得画像の撮影時刻から、当該撮影時のシャッターが開いている時間(露光している時間)におけるレーザースキャン点の情報を得る。この情報から、UAV取得画像に写っているレーザースキャン点の輝点の情報を特定する。すなわち、UAV取得画像に写っているレーザースキャン点の位置情報を特定する。そして、レーザースキャン点を基準点として、カメラの位置と姿勢が求められる。
また、レーザースキャン点を、測量装置取得画像とUAV取得画像の間の対応関係の特定に利用することもできる。まず、測量装置取得画像は、カメラ201が撮像した画像であり、レーザースキャナ部202が取得したレーザースキャン点群との関係は判明している。よって、カメラ301が撮像したUAV取得画像中に写ったレーザースキャン点の輝点を介して、測量装置取得画像とUAV取得画像の関係を求めることができる。
レーザースキャン点の他の利用形態としては、撮影画像にもし1列に輝点が写っていない場合に、シャッタースピードが十分でない、UAVの移動スピードが速い等の可能性を判定する形態が挙げられる。
このように、測量装置200のレーザースキャナを点群データの取得以外の用途に利用する形態が可能である。
(その他)
UAV300にレーザースキャナを搭載してもよい。UAV300にレーザースキャナを搭載することで、UAV300からレーザースキャン点群を得ることができる。
(優位性)
地上に設置された測量装置200から得たレーザースキャンデータに基づき、目視検査の対象である橋梁100の3Dモデルを得、この3Dモデルに基づき、UAV300の飛行コースを設定することで、橋梁100と干渉しない飛行をUAV300に行わすことができる。また、上記3Dモデルに基づき、飛行中におけるUAV300搭載のカメラ301の向きを設定することで、効率よく橋梁100の細部の詳細画像を得ることができる。
また、測量装置200が得た橋梁の画像(または3Dモデル)にUAV300が得た詳細画像をマッピングすることで、橋梁100の画像を用いた目視点検を効率良く、且つ、効果的に行うことができる。
以上説明した技術によれば、測量装置200を基準とした座標系上において、(1)UAV300の飛行ルートおよび飛行時のカメラ201の向きの設定、(2)UAV300から撮影した画像に基づく3Dモデルの作成が可能となる。そして、(3)測量装置200から撮影した画像へのUAV300から撮影した画像のマッピング、(4)測量装置200が得た3DモデルへのUAV300から撮影した画像のマッピングが可能となる。
以上説明した技術では、測量装置200からの計測データから作成した3Dデータと、UAV300から得たデータに基づき作成した3Dデータの位置合わせ(レジストレーション)の作業が不要となる。異なる座標系間のレジストレーションは、煩雑であり、負担が大きく、また、誤レジストレーションの問題もある。この作業が不要となることで、作業効率と精度の追求が可能となる。
例えば、設計データのない建築物の検査、劣化診断に対して、後処理での対象物データとUAV飛行時の座標系のレジストレーション作業が不要となり、効率の良い、欠陥検査、測定が可能となる。
本発明は、トータルステーションの機能とレーザースキャナの機能を複合化した測量装置とUAVを用いたインフラ設備のメンテナンスや測量に利用することができる。
100…橋梁、200…測量装置、202…レーザースキャナ部、210…三脚、211…ベース部、212…水平回転部、213…鉛直回転部、214…望遠鏡、300…UAV、301…カメラ、309反射プリズム、400…処理装置。

Claims (15)

  1. それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載し、自律飛行が可能なUAVが取得した測量データを処理する測量データ処理システムであって、
    前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、
    前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、
    前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付手段と、
    前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定手段と、
    前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定手段と
    を備える測量システム。
  2. 前記UAVにより、前記特定の部分の撮影が行われ、
    前記視点の位置は、前記特定の部分を正面から見る位置である請求項1の記載の測量システム。
  3. 前記レーザースキャンデータに基づき、前記特定の部分の法線が算出され、
    前記視点の位置は、前記法線に基づき算出される請求項1または2に記載の測量システム。
  4. 前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成部と、
    前記第2のカメラが撮影した画像に基づき、立体写真計測の原理により被撮影対象の3Dモデルを作成する第2の3Dモデル作成部と
    を備える請求項1~3のいずれか一項に記載の測量システム。
  5. 前記UAVの飛行中において、
    前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、
    前記第2の3Dモデル作成部が作成する3Dモデルは、前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成する3Dモデルと同じ座標系上で作成される請求項4に記載の測量システム。
  6. 前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成した3Dモデルに前記第1のカメラが撮影した画像をマッピングするマッピング処理部を備える請求項4または5に記載の測量システム。
  7. 前記マッピングとして、前記第1の3Dモデル作成部が作成した3Dモデルへの前記第2のカメラが撮影した画像の埋め込みまたは重畳が行われる請求項6に記載の測量システム。
  8. 前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1のカメラが撮影した画像に前記第2のカメラが撮影した画像をマッピングするマッピング処理部を備える請求項4または5に記載の測量システム。
  9. 前記マッピングとして、前記第1のカメラが撮影した画像への前記第2のカメラが撮影した画像の埋め込みまたは重畳が行われる請求項8に記載の測量システム。
  10. 前記レーザースキャナによる測量対象物に対するレーザースキャンを行い、
    前記第2のカメラは、前記レーザースキャンの結果生じる前記測量対象物におけるレーザースキャン光の輝点を検出し、
    前記輝点に基づき、前記第2のカメラの姿勢の算出が行われる請求項4または5に記載の測量システム。
  11. それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載し、自律飛行が可能なUAVが取得した測量データを処理する測量データ処理方法であって、
    前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付ステップと、
    前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付ステップと、
    前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付ステップと、
    前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定ステップと、
    前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定ステップと
    を有する測量方法。
  12. それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載し、自律飛行が可能なUAVが取得した測量データを実行するためのプログラムであって、
    コンピュータに
    前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付ステップと、
    前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付ステップと、
    前記第1のカメラが撮影した画像の中における特定の部分の指定を受け付ける指定部分受付ステップと、
    前記レーザースキャンデータに基づき、前記指定部分を視界に収める視点の位置を含む前記UAVの飛行経路を設定する飛行経路設定ステップと、
    前記レーザースキャンデータに基づき、前記UAVの前記飛行経路における前記第2のカメラの向きを設定するカメラの向き設定ステップと
    を実行させる測量用プログラム。
  13. それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載したUAVが取得した測量データを処理する測量データ処理システムであって、
    前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、
    前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、
    前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成手段と、
    マッピング処理手段と
    を備え、
    前記UAVの飛行中において、
    前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、
    前記マッピング処理手段は、
    前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1の3Dモデル作成部が作成した3Dモデルに前記第1のカメラが撮影した画像をマッピングする測量システム。
  14. それぞれの外部標定要素の関係が既知の第1のカメラ、レーザースキャナおよびトータルステーションを複合化した測量装置が取得した測量データ、および第2のカメラを搭載したUAVが取得した測量データを処理する測量データ処理システムであって、
    前記第1のカメラおよび前記第2のカメラが撮影した画像の画像データを受け付ける画像データ受付手段と、
    前記レーザースキャナにより得たレーザースキャンデータを受け付けるレーザースキャンデータ受付手段と、
    前記レーザースキャンによって得たレーザースキャンデータに基づき前記レーザースキャンの対象の3Dモデルを作成する第1の3Dモデル作成手段と、
    マッピング処理手段と
    を備え、
    前記UAVの飛行中において、
    前記測量装置は、前記トータルステーションによる前記UAVの測位を行い、
    前記マッピング処理手段は、
    前記トータルステーションによる前記UAVの測位の結果に基づき、前記第1のカメラが撮影した画像に前記第2のカメラが撮影した画像をマッピングする測量システム。
  15. 前記第2のカメラは、前記UAVが飛行している状態において、前記レーザースキャンの対象に対して複数回の写真撮影を行い、
    前記複数回の写真撮影によって得た複数の画像中の多数の特徴点と前記第2のカメラの位置の関係および前記トータルステーションによる前記UAVの測位データに基づき、前記複数の画像それぞれにおける前記第2のカメラの位置と姿勢が求められ、
    前記レーザースキャンデータと前記第2のカメラの位置と姿勢の関係に基づき、前記マッピングが行われる請求項6~9、13,14のいずれか一項に記載の測量システム。

JP2020126634A 2020-07-27 2020-07-27 測量システム、測量方法および測量用プログラム Pending JP2022023592A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020126634A JP2022023592A (ja) 2020-07-27 2020-07-27 測量システム、測量方法および測量用プログラム
EP21186339.4A EP4008997A1 (en) 2020-07-27 2021-07-19 Surveying system, surveying method, and surveying program
EP23151237.7A EP4246088A1 (en) 2020-07-27 2021-07-19 Surveying system, surveying method, and surveying program
US17/443,324 US20220026208A1 (en) 2020-07-27 2021-07-24 Surveying system, surveying method, and surveying program
CN202110850440.6A CN113984019A (zh) 2020-07-27 2021-07-27 测量系统、测量方法以及测量用程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020126634A JP2022023592A (ja) 2020-07-27 2020-07-27 測量システム、測量方法および測量用プログラム

Publications (1)

Publication Number Publication Date
JP2022023592A true JP2022023592A (ja) 2022-02-08

Family

ID=76971694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020126634A Pending JP2022023592A (ja) 2020-07-27 2020-07-27 測量システム、測量方法および測量用プログラム

Country Status (4)

Country Link
US (1) US20220026208A1 (ja)
EP (2) EP4246088A1 (ja)
JP (1) JP2022023592A (ja)
CN (1) CN113984019A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11719536B2 (en) * 2019-09-24 2023-08-08 Gerald Stewart Clarke Apparatus, system, and method for aerial surveying
KR102372446B1 (ko) * 2020-08-13 2022-03-11 동아대학교 산학협력단 무인비행체와 가상 수상 기준점을 활용한 수위 측정 및 3차원 수면 공간정보 생성 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5480914B2 (ja) 2009-12-11 2014-04-23 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5711039B2 (ja) 2011-04-27 2015-04-30 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理方法、三次元点群位置データ処理システムおよびプログラム
JP5832341B2 (ja) 2012-03-09 2015-12-16 株式会社トプコン 動画処理装置、動画処理方法および動画処理用のプログラム
JP5963353B2 (ja) 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
EP3062066A1 (en) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
EP3246660B1 (en) * 2016-05-19 2019-10-30 Hexagon Technology Center GmbH System and method for referencing a displaying device relative to a surveying instrument
JP7037302B2 (ja) 2017-09-06 2022-03-16 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
JP2019090653A (ja) 2017-11-13 2019-06-13 株式会社トプコン 測量装置、測量装置の校正確認方法および測量装置の校正確認用プログラム
JP7007167B2 (ja) 2017-12-05 2022-01-24 株式会社トプコン 測量装置、測量装置の校正方法および測量装置の校正用プログラム
JP7077013B2 (ja) 2017-12-27 2022-05-30 株式会社トプコン 三次元情報処理部、三次元情報処理部を備える装置、無人航空機、報知装置、三次元情報処理部を用いた移動体制御方法および移動体制御処理用プログラム
JP7043283B2 (ja) 2018-02-14 2022-03-29 株式会社トプコン 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム

Also Published As

Publication number Publication date
EP4246088A1 (en) 2023-09-20
US20220026208A1 (en) 2022-01-27
CN113984019A (zh) 2022-01-28
EP4008997A1 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
JP6321077B2 (ja) 縦続カメラおよび/またはキャリブレーション特徴を含む広いエリア画像を詳細に取り込むシステムおよび方法
US10234278B2 (en) Aerial device having a three-dimensional measurement device
CN106767706A (zh) 一种无人机勘查交通事故现场的航拍图像采集方法及系统
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
JP2003279351A (ja) 測量装置及び測量装置を用いて画像データを取得する方法
JP6675537B1 (ja) 飛行経路生成装置、飛行経路生成方法とそのプログラム、構造物点検方法
JP7007137B2 (ja) 情報処理装置、情報処理方法および情報処理用プログラム
JP6138326B1 (ja) 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置
JP7152137B2 (ja) 写真測量システム及び写真測量方法
JP2019056571A (ja) 測量システム
CN111442721A (zh) 一种基于多激光测距和测角的标定设备及方法
JP6930840B2 (ja) 測量システム
JPWO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
CN111953892B (zh) 无人飞行器、检查方法
JP7050425B2 (ja) 測量システム
US20220026208A1 (en) Surveying system, surveying method, and surveying program
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CN111445529A (zh) 一种基于多激光测距的标定设备及方法
JP2019132769A (ja) 測量システム
JP7362203B2 (ja) 無人移動体
WO2019188961A1 (ja) ターゲット装置、測量システム
US20210229810A1 (en) Information processing device, flight control method, and flight control system
KR20210037998A (ko) 드론 경로 제공 방법
JP4167509B2 (ja) 測量システム
CN111094892B (zh) 勘测仪器的数据收集任务队列

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240126