KR20200140239A - 무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램 - Google Patents

무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램 Download PDF

Info

Publication number
KR20200140239A
KR20200140239A KR1020207022945A KR20207022945A KR20200140239A KR 20200140239 A KR20200140239 A KR 20200140239A KR 1020207022945 A KR1020207022945 A KR 1020207022945A KR 20207022945 A KR20207022945 A KR 20207022945A KR 20200140239 A KR20200140239 A KR 20200140239A
Authority
KR
South Korea
Prior art keywords
aerial vehicle
unmanned aerial
mounting table
survey
uav
Prior art date
Application number
KR1020207022945A
Other languages
English (en)
Inventor
다케시 사사키
노부유키 후카야
요우 사사키
Original Assignee
가부시키가이샤 토프콘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 토프콘 filed Critical 가부시키가이샤 토프콘
Publication of KR20200140239A publication Critical patent/KR20200140239A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/007Helicopter portable landing pads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/18Visual or acoustic landing aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/22Ground or aircraft-carrier-deck installations for handling aircraft
    • B64F1/222Ground or aircraft-carrier-deck installations for handling aircraft for storing aircraft, e.g. in hangars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/36Other airport installations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • B64C2201/127
    • B64C2201/20
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(과제) 항공 사진 측량에 관하여, 표정용 타깃의 설치에 따른 비용을 삭감하면서, 높은 측량 정밀도를 얻는다.
(해결 수단) 비행 개시 전의 UAV(200)를 설치하는 무인 항공기의 발사대(220)로서, 항공 사진 측량에 이용하는 표정(標定)점을 구성하는 타깃 표시(224)와, 비행 전의 단계에 있어서의 UAV(200)의 타깃 표시(224)에 대한 위치가 특정된 상태에서 발사대(220)에 대한 UAV(200)의 위치를 결정하는 위치 결정부(221, 222)를 구비하는 UAV(200)의 발사대(220).

Description

무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램
본 발명은, 항공 사진 측량 기술에 관한 것이다.
무인 항공기(UAV(Unmanned Aerial Vehicle))를 항공 사진 측량에 이용하는 기술이 알려져 있다. 이 기술에서는, UAV로부터 지표 등의 측량 대상을 촬영한 사진 화상을 이용하여 측량 대상의 3차원 모델을 작성한다. 이 기술에서는, 우선 촬영 대상이 중복된 복수의 사진 화상을 이용하여 표정(標定)을 행하고, UAV에 탑재된 카메라의 외부 표정 요소(위치와 자세)를 구하고, 이 외부 표정 요소를 이용하여 3차원 모델의 작성에 따른 처리가 행해진다. 항공 사진 측량에 있어서의 카메라의 외부 표정 요소를 구하는 기술에 대해서는, 예를 들면 특허문헌 1에 기재되어 있다.
일본국 특허공개 2014-6148호 공보 일본국 특허출원 2017-171289호 공보
종래의 기술에서는, 지표에 위치를 미리 측정한 표정용 타깃을 복수 배치하고, 항공 사진의 화상에 찍힌 표정용 타깃을 이용하여 후방 교회법에 의해 각 화상에 대응한 카메라의 외부 표정 요소의 산출이 행해진다. 이 기술에서는, 표정용 타깃의 설치 및 측위에 따른 비용이 문제가 된다. 또, 지형에 따라서는 표정용 타깃의 설치가 곤란하다는 문제도 있다.
예를 들면, TS(토탈 스테이션)로 UAV를 추적 및 측위함으로써, 표정용 타깃을 이용하지 않아도 3차원 모델에 실제 스케일을 부여할 수 있다(예를 들면, 특허문헌 2 참조). 그러나, 최종적으로 얻어지는 3차원 모델의 정밀도를 구하는 경우, 지상에 적어도 1점의 표정용 타깃을 배치하고, 그 위치 데이터를 구속점으로 하여 조정 계산을 행하는 것이 바람직하다.
이러한 배경에 있어서, 본 발명은, 항공 사진 측량에 관하여, 표정용 타깃의 설치에 따른 비용을 삭감하면서, 높은 측량 정밀도를 얻을 수 있는 기술의 제공을 목적으로 한다.
청구항 1에 기재된 발명은, 무인 항공기가 설치되는 무인 항공기의 설치대로서, 항공 사진 측량에 이용하는 표정점을 구성하는 타깃 표시 기능과, 비행 전의 단계에 있어서의 무인 항공기의 상기 타깃 표시 기능에 대한 위치가 특정된 상태에서 당해 설치대에 대한 상기 무인 항공기의 위치를 결정하는 구조 및/또는 표시를 구비하는 무인 항공기의 설치대이다.
청구항 2에 기재된 발명은, 청구항 1에 기재된 발명에 있어서, 상기 무인 항공기는 레이저 측위를 위한 반사 타깃을 구비하고, 상기 무인 항공기가 당해 설치대에 탑재된 상태에 있어서, 상기 타깃 표시 기능과 상기 반사 타깃의 위치 관계가 특정되어 있는 것을 특징으로 한다. 청구항 3에 기재된 발명은, 청구항 2에 기재된 발명에 있어서, 상기 반사 타깃의 위치가 측위됨으로써, 당해 설치대의 위치가 특정되는 것을 특징으로 한다.
청구항 4에 기재된 발명은, 청구항 1 내지 3 중 어느 한 항에 기재된 무인 항공기의 설치대를 이용한 측량 방법으로서, 상기 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치를 측정하는 제1 단계와, 상기 제1 단계의 결과에 의거하여, 상기 설치대의 위치를 특정하는 제2 단계와, 비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영하는 제3 단계와, 상기 제2 단계에서 얻은 상기 설치대의 위치 및 상기 제3 단계에서 얻은 촬영 화상에 의거하여 측량 대상의 3차원 데이터를 계산하는 제4 단계를 갖는 측량 방법이다.
청구항 5에 기재된 발명은, 청구항 4에 기재된 발명에 있어서, 상기 설치대 상에 상기 무인 항공기를 설치한 상태에 있어서의 상기 무인 항공기의 위치와 상기 설치대의 위치의 관계는 미리 특정되어 있으며, 상기 설치대 상에 설치된 상태에서 측위된 상기 무인 항공기의 위치와 상기 특정된 내용에 의거하여, 상기 설치대의 위치의 특정이 행해지는 것을 특징으로 한다.
청구항 6에 기재된 발명은, 청구항 4 또는 5에 기재된 발명의 제4 단계에 있어서, 상기 설치대를 표정점으로서 이용하는 것을 특징으로 한다. 청구항 7에 기재된 발명은, 청구항 4 내지 6 중 어느 한 항의 제4 단계에 있어서, 상기 제4 단계에 있어서, 상기 설치대의 위치를 구속점으로 하여, 상기 항공 사진 측량의 대상을 촬영한 카메라의 외부 표정 요소 및 내부 표정 요소를 최적화하는 조정 계산이 행해지는 것을 특징으로 한다.
청구항 8에 기재된 발명은, 청구항 1 내지 3 중 어느 한 항에 기재된 무인 항공기의 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치 데이터를 접수하는 위치 데이터 접수부와, 상기 무인 항공기의 위치 데이터에 의거하여, 상기 설치대의 위치를 특정하는 위치 특정부와, 비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영한 화상의 화상 데이터를 접수하는 화상 데이터 접수부와, 상기 설치대의 상기 위치 및 상기 화상 데이터에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터의 계산을 행하는 계산부를 구비한 측량 장치이다.
청구항 9에 기재된 발명은, 청구항 1 내지 3 중 어느 한 항에 기재된 무인 항공기의 설치대를 이용한 측량 시스템으로서, 상기 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치를 측정하는 수단과, 상기 무인 항공기의 위치에 의거하여, 상기 설치대의 위치를 특정하는 수단과, 비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영하는 수단과, 상기 설치대의 상기 위치 및 상기 촬영으로 얻은 촬영 화상에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터를 계산하는 수단을 갖는 측량 시스템이다.
청구항 10에 기재된 발명은, 컴퓨터로 하여금 판독하게 하여 실행시키는 프로그램으로서, 컴퓨터로 하여금 청구항 1 내지 3 중 어느 한 항에 기재된 무인 항공기의 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치 데이터를 접수하게 하고, 상기 무인 항공기의 위치 데이터에 의거하여, 상기 설치대의 위치를 특정하게 하고, 비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영한 화상의 화상 데이터를 접수하게 하고, 상기 설치대의 상기 위치 및 상기 촬영으로 얻은 촬영 화상에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터의 계산을 행하게 하는 프로그램이다.
본 발명에 의하면, 항공 사진 측량에 관하여, 표정용 타깃의 설치에 따른 비용을 삭감하면서, 높은 측량 정밀도를 얻을 수 있는 기술이 얻어진다.
도 1은, 실시형태의 전체 개념도이다.
도 2는, 표정의 원리를 나타내는 이미지 도이다.
도 3은, 표정의 원리를 나타내는 이미지 도이다.
도 4는, 실시형태의 블록도이다.
도 5는, 처리 순서의 일례를 나타내는 플로차트이다.
1. 제1 실시형태
(개요)
도 1에 실시형태의 개요의 전체 도면를 나타낸다. 도 1에는, TS(토탈 스테이션)(100), UAV(200), UAV(200)의 발사대(220), PC(퍼스널 컴퓨터)를 이용하여 구성한 측량 데이터 처리 장치(400)가 나타나 있다. UAV(200)는 비행하면서 카메라(201)에 의한 지상의 촬영을 행한다. UAV(200)는, TS(토탈 스테이션)(100)에 의해 추적되며, 또한, 그 3차원 위치가 순차적으로 측정된다. TS(100)에 의한 UAV(200)의 추적은, UAV(200)에 탑재한 반사 프리즘(202)을 추미(追尾) 광에 의해 추미함으로써 행해진다. TS(100)에 의한 UAV(200)의 측위는, 반사 프리즘(202)을 대상으로 한 레이저 측거에 의해, TS(100)에서 본 UAV(200)의 방향과 거리를 구함으로써 행해진다. 반사 프리즘(202)은, 코너 큐브를 이용한 광학 타깃이며, 입사 광을 180° 방향을 반전시킨 상태로 반사한다.
TS(100)는, 절대 좌표계 상에 있어서의 기지(旣知)의 3차원 위치에 설치되어 있으며, TS(100)에서 본 UAV(200)의 방향과 거리가 계측됨으로써, 절대 좌표계에 있어서의 UAV(200)의 3차원 위치가 특정된다. 구체적으로 말하면, TS(100)로부터 측거용 레이저 광이 UAV(200)의 반사 프리즘(202)에 조사된다. 반사 프리즘(202)에서 반사된 당해 레이저 광은, TS(100)에서 수광된다. 이 반사 광의 수광 타이밍과 TS(100) 내에 설치된 기준 광로를 통한 기준 광의 수광 타이밍의 위상차로부터, TS(100)에서 반사 프리즘(202)까지의 거리가 산출된다. 또 이 때의 TS(100)의 광축의 방향으로부터 TS(100)에서 본 반사 프리즘(202)의 방향을 알 수 있다. 그리고 반사 프리즘(202)까지의 거리와 방향으로부터 TS(100)에 대한 반사 프리즘(202)의 위치가 산출된다. 절대 좌표계 상에 있어서의 TS(100)의 위치는 기지이므로, TS(100)에 대한 반사 프리즘(202)의 위치가 판명됨으로써, 절대 좌표계에 있어서의 반사 프리즘(202)의 위치가 특정된다. 이것이 반사 프리즘(202)을 대상으로 한 레이저 측거의 원리이다.
절대 좌표계라는 것은, 지도 정보를 다루는 지상에 고정된 좌표계이며, 지도 좌표계라고도 할 수 있다. 예를 들면, GNSS에서 이용되는 좌표계가 절대 좌표계(지도 좌표계)이다. 절대 좌표계에 있어서의 좌표계의 표기로서는, 위도, 경도, 표고(평균 해면으로부터의 높이)를 들 수 있다. 절대 좌표계의 좌표축의 방향으로서는, X축이 동쪽 방향, Y축이 북쪽 방향, Z축이 연직 상방의 방향으로 하는 예를 들 수 있다. 여기서 로컬 좌표계를 이용할 수도 있다.
TS(토탈 스테이션)(100)는, 시장에서 입수 가능한 것을 이용하고 있다. TS(100)에 관해서는, 예를 들면 일본국 특허공개 2009-229192호 공보, 일본국 특허공개 2012-202821호 공보에 기재되어 있다. TS(100)에 의해 UAV(200)를 추적하고, 측위하는 기술에 대해서는, 예를 들면 일본국 특허출원 2016-247917호 공보나 일본국 특허출원 2017-002419호 공보 등에 기재되어 있다. 또, TS에 의한 타깃(반사 프리즘(202))의 검출 및 추적에 관한 기술은, 예를 들면 일본국 특허 제5124319호 공보에 기재되어 있다.
UAV(200)는, 시판되고 있는 것에 카메라(201)와 반사 프리즘(202)을 장착한 것이다. UAV(200)는, 비행 제어 장치, IUM(관성 계측 장치), 비행 계획이나 비행 로그 등을 기억하는 기억 장치, 무선 통신 장치, GNSS 위치 특정 장치를 구비하고 있다. 여기서, UAV(200)에 있어서의 카메라(201), 반사 프리즘(202), IMU, GNSS 위치 특정 장치의 위치 및 자세의 관계는 미리 조사되어 있으며, 그 데이터는 측량 데이터 처리 장치(400)에 미리 기억되어 있다.
UAV(200)는, 비행 계획과 비행 로그를 기억하는 기억 장치를 구비한다. 비행 계획은, 통과점의 좌표와 그 점에 있어서의 속도를 미리 정한 데이터이다. 비행 로그에는, GNSS 장치가 계측한 비행 경로의 데이터, 촬영 데이터, IMU가 계측한 촬영 시의 UAV(200)의 자세의 데이터가 기억된다.
UAV(200)는, 다리부(203, 204, 205, 206)를 구비하고 있다. 다리부(206)은, 무늬가 붙어있으며, 다리부(203, 2040, 205)와 구별할 수 있도록 고안되어 있다. 다리부(206)을 인식함으로써, UAV(200)의 방향이 특정된다.
UAV(200)는, 미리 정한 비행 계획에 따라 비행하고, 그 때에 카메라(201)에 의해 항공 사진 측량의 대상(예를 들면 지표)을 촬영한다. 촬영은, 1초마다 혹은 2초마다 등의 시간 간격으로 행해져, 촬영 대상이 중복되고, 조금씩 어긋난 화상이 비행 경로를 따라 다수 촬영된다. 카메라(201)가 촬영한 화상 데이터는, 촬영 시각, 촬영 시각에 IMU에 의해 계측된 UAV(200)의 자세(카메라(201)의 자세), 촬영 시각에 GNSS 위치 특정 장치에 의해 계측된 UAV(200)의 위치(카메라(201)의 위치)의 데이터와 함께 비행 로그에 저장된다. 비행 로그의 데이터는, 비행 종료 후에 회수되어, 측량 데이터 처리 장치(400)에서 처리된다.
발사대(220)는, UAV(200)의 발사대겸 표정용 타깃으로서 기능한다. 발사대(220)는, 항공 사진 측량에 이용하는 표정점용 타깃으로서도 기능시키기 위한 타깃 표시 기능을 갖고 있다. 이 예에서는, 카메라(201)가 촬영한 항공 사진 안에서의 특정을 용이하게 하는 타깃 표시(224)가 발사대에 형성되어 있다. 타깃 표시(224)는, 항공 사진 측량에 있어서의 표정점으로서 기능한다. 타깃 표시의 형상이나 색은, 화상으로서 식별하기 쉬운 것이 선택된다. 타깃 표시로서 컬러 코드 타깃이나 바코드 표시를 이용할 수도 있다.
발사대(220)는, 위치 결정부(221과 222)를 구비하고 있다. 위치 결정부(221)는, 다리부(206)을 수용하는 오목부를 갖고, 위치 결정부(222)는, 다리부(203)을 수용하는 오목부를 갖고 있다. 2개의 오목부는 형상이 상이하도록 설정되어 있으며, 위치 결정부(221)에는, 다리부(206)은 수용할 수 있지만, 다리부 203은 형태가 맞지 않아 수용할 수 없다. 반대로, 위치 결정부 222에는, 다리부 203은 수용할 수 있지만, 다리부(206)은 형태가 맞지 않아 수용할 수 없다. 이렇게 함으로써, 발사대(220)에 UAV(200)를 설치했을 때에, 발사대(220)에 대한 UAV(200)의 위치 및 자세가 일의적으로 결정되도록 하고 있다. 특히 이 구조에서는, 발사대(220)에 UAV(200)를 설치했을 때에, 발사대(220)에 대한 반사 프리즘(202)의 위치가 일의적으로 결정된다.
발사대(220)에 UAV(200)를 설치한 상태에서, 발사대(220)의 위치(타깃 표시(224)의 중심 위치), UAV(200)의 위치(예를 들면 탑재하는 IMU의 위치), 카메라(201)의 위치, 반사 프리즘(202)의 위치의 관계는 일의적으로 결정된다. 이 관계는 미리 기지의 데이터로서 취득되어, 측량 데이터 처리 장치(400) 내의 기억부(311)(도 4 참조)에 기억되어 있다.
항공 사진 측량의 정밀도를 높이려면, 각 화상의 촬영 시에 있어서의 카메라(201)의 외부 표정 요소(위치와 자세)의 정밀도가 중요해진다. 본 실시형태에서는, 이하의 순서에 의해 카메라(201)의 외부 표정 요소의 정밀도를 높인다.
(처리 플로우의 개략)
(1) 비행 개시
우선, UAV(200)를 발사대(220) 상에 설치한다. 이 때, 위치 결정부(221과 222)를 이용하여, 발사대(220) 상에 있어서의 UAV(200)의 자세 및 위치를 미리 정한 것이 되도록 한다. 상기의 세팅이 끝난 상태(비행 개시 전의 상태)에서, TS(100)에 의해 UAV(200)의 반사 프리즘(202)을 포착하고, 추미과 측위를 개시한다. 이 비행 개시 전의 단계에 있어서의 반사 프리즘(202)의 측위 데이터로부터 반사대(220)의 표정점으로서의 위치(이 경우는, 타깃 표시(224)의 중심의 위치)가 산출되고, 그 값이 후에 행해지는 조정 계산 시의 구속점으로서 취득된다.
그 후, 비행을 개시한다. 비행은, 미리 정한 비행 계획에 따라 행해지며, 비행 중에 카메라(201)에 의한 지표의 촬영이 행해진다. 이 때, 촬영하는 항공 사진 화상 안에 발사대(220)가 찍힌 화상이 반드시 포함되도록, 촬영의 타이밍이나 비행 코스의 설정이 행해진다.
(1) 상호 표정
항공 사진 화상에 의거한 임의 스케일의 상대 3차원 모델의 작성을 행하고, 복수의 화상간에 특정된 특징점과 각 화상의 촬영 시에 있어서의 카메라(201)의 위치 및 자세의 상대 관계를 특정한다.
(2) 절대 표정
TS(100)가 측위한 카메라(201)의 위치(반사 프리즘의 위치를 이용)를 이용하여 상기 (1)의 상호 표정으로 작성된 상대 3차원 모델에 스케일(실제의 값)을 부여하고, 카메라(201)의 절대 좌표계에 있어서의 외부 표정 요소의 절대값을 구한다.
(3) 조정 계산
번들 조정 계산 및 반사 프리즘 위치와 카메라 위치의 관계를 고려한 조정 계산을 동시에 행하고, 특징점의 위치, 외부 표정용 요소 및 내부 표정 요소의 최적화를 행한다. 이 조정 계산 시에, 비행을 개시하기 전의 단계에서 취득한 발사대(220)의 위치를 구속점으로서 이용한다.
상기의 조정 계산 시에, 다른 보정 요소를 고려해도 된다. 예를 들면, TS(100)로부터의 측거 광 및 추미 광의 입사각에 의존하는 반사 프리즘(202)에 있어서의 반사점 위치의 편차를 고려한 계산을 행해도 된다(예를 들면, 일본국 특허출원 2017-171289호 공보 참조).
(각 처리의 상세)
(1) 상호 표정
이하, 설명을 간소하게 하기 위해 중복된 대상을 상이한 위치에서 촬영한 2매의 화상(이하 스테레오 화상)을 이용한 상호 표정에 대해서 설명한다. UAV(200)는, 비행하면서 카메라(201)에 의해 지표를 연속해서 촬영하고, 다수의 항공 사진 화상을 얻는다. 여기서, 시간축 상에서 근접하여, 촬영 범위가 중복된 2매의 항공 사진 화상을 스테레오 화상으로서 선택한다. UAV(200)는 비행하면서 촬영을 시시각각 행하므로, 상기의 스테레오 화상은, 시점(視点)의 위치가 상이하며, 또한, 중복된 대상이 찍힌 2매의 화상이 된다.
도 2는, 시각 t1에 있어서의 카메라(200)를 나타내는 카메라(201a), 시각 t2(t1<t2)에 있어서의 카메라(200)를 나타내는 카메라 201b가 지표가 중복된 영역을 촬영한 경우의 이미지 도이다.
이 처리에서는, 우선 카메라(201a)로부터 촬영한 제1 화상과 카메라 201b로부터 촬영한 제2 화상의 각각으로부터 특징점의 추출을 행하고, 또한 제1 화상과 제2 화상에 있어서의 특징점의 대응 관계의 특정을 행한다. 이 기술에 대해서는, 예를 들면 일본국 특허공개 2013-186816호 공보나 일본국 특허공개 2013-178656호 공보에 기재되어 있다. 또한, 일본국 특허공개 2013-186816호 공보에는, 특징점의 추출, 2개의 화상간에 있어서의 특징점의 매칭, 교회법, 각종 표정, 특징점의 3차원 위치의 산출, 번들 조정 등에 대해서 상세하게 기재되어 있다.
도 2에는, 상기 제1 및 제2 화상으로부터 추출된 공통된 특징점 Pj가 나타나 있다. 또한, 2개의 화상에 공통된 특징점은 다수 추출되는데, 여기에서는 설명을 간소하게 하기 위해 1점의 특징점 Pj만이 도 2에 나타나 있다.
상호 표정에서는, 카메라(201a)로부터 촬영한 제1 화상과 카메라 201b로부터 촬영한 제2 화상 사이에 있어서의 특징점의 어긋남이 해소되도록 카메라 201a와 201b의 방향과 위치를 탐색(조정)하고, 카메라 201a 및 201b의 상대적인 외부 표정 요소(위치와 자세)를 구한다. 이 때, UAV(200)의 IMU가 계측한 UAV(200)의 자세의 데이터로부터 구한 각 화상의 촬영 시에 있어서의 카메라 201a, 201b의 자세의 데이터를 초기값으로 하고, 카메라 201a 및 201b의 상대적인 외부 표정 요소의 탐색을 행한다. 이 단계에서는, 실제 스케일(절대 좌표계에 있어서의 좌표값이나 자세의 값)이 부여되지 않고, 이 단계에 있어서의 외부 표정 요소는, 카메라 201a와 201b의 상대 위치 관계와 상대적인 자세(방향)의 관계가 된다.
도 2의 경우로 말하면, 상호 표정에 의해, 카메라 201a, 201b, 특징점 Pj의 상대적인 위치 관계, 즉, 카메라 201a, 201b, 특징점 Pj를 정점으로 하는 삼각형의 형상(2개의 모서리의 각도)이 구해진다. 단, 실제 스케일이 부여되고 있지 않으므로, 상기의 삼각형의 크기는 정해지지 않고, 상대적인 도형이 된다.
상호 표정은, 카메라(201)가 촬영한 이용 가능한 모든 화상을 대상으로 행해지며, 각 화상에 대응한 각 시점 위치에 있어서의 카메라(201)의 상대적인 외부 표정 요소를 얻는다. 상기의 설명에서는, 2매의 화상을 스테레오 화상으로서 이용한 상호 표정의 예를 설명했는데, 실제로는 중복된 대상이 찍힌 3매 이상의 화상을 이용하여 상호 표정이 행해진다.
다수의 화상에 대응한 카메라 위치에 관하여, 상기의 상대적인 위치와 자세의 관계를 구함으로써, 다수의 특징점과 카메라의 위치 및 자세의 상대적인 관계가 특정된 상대 3차원 모델이 얻어진다. 도 3에는, 복수의 화상에 따른 각 카메라의 위치와 방향의 상대 관계와, 복수의 화상에서 공통되는 특징점의 위치의 상대 관계를 특정한 상대 3차원 모델을 작성하는 원리가 개념적으로 나타나 있다. 이 상대 3차원 모델은 실제 스케일이 부여되고 있지 않고, 절대 좌표계와의 관계는, 상호 표정의 단계에서는 알 수 없고 미지(未知)이다.
도 3에는, 발사대(220)도 촬영 화면(209)으로부터 추출되어, 표정점으로서 이용되는 상태가 나타나 있다. 여기서, 촬영 화면(209) 안의 검은 점(210)은, 촬영 화면 안에 있어서의 특징점이나 발사대(220)의 화면 상의 점이다. 측정 대상물의 특징점 및 발사대(220), 상기의 화상 상의 점(210), 투영 중심(카메라(201)의 광학 원점)의 3점을 잇는 광속(光束)(번들)이 동일 직선 상에 있어야 한다는 조건이, 후술하는 공선(共線) 조건이다.
상기의 상호 표정은, 특징점 이외에 발사대(220)(타깃 표시(224))를 이용하여 행해도 된다. 이 경우, 발사대(220)(타깃 표시(224))를 표정점으로 한 상호 표정이 행해진다. 이 처리에서는, 우선, 카메라(201)가 찍은 사진 화상 안에서 발사대(220)(타깃 표시(224))의 화상을 추출한다. 이 처리는, 공지의 화상 인식 기술을 이용하여 행해진다. 또 이 처리는, 발사대(220)가 찍힌 복수의 사진 화상을 대상으로 행해진다. 그리고, 발사대(220)(타깃 표시(224))의 위치를 도 2의 Pj로 하여 상술한 상호 표정을 행한다.
(2) 절대 표정
만일, 도 3에 있어서의 복수의 특징점의 절대 좌표계에 있어서의 위치를 알 수 있다면, 도 3의 상대 모델에 실제 스케일이 부여되고, 또 카메라(201)의 절대 좌표계에 있어서의 방향도 특정된다. 이는, 종래부터 행해지고 있는 표정용 타깃을 이용한 절대 표정의 원리이다.
본 실시형태에서는, 종래 이용되고 있는 표정용 타깃을 이용하지 않고 상호 표정에 의해 얻어진 상대 3차원 모델에 실제 스케일을 부여하여, 도 3에 나타내는 상대 3차원 모델을 절대 좌표계 상에서 기술할 수 있도록 한다. 이하, 본 실시형태에 있어서의 절대 표정에 대해서 설명한다.
이 처리에서는, 도 3에 예시하는 상대 3차원 모델에 있어서의 카메라(201)의 이동 궤적에 착목한다. 도 1에 나타내는 바와 같이, 본 실시형태에서는, UAV(200)의 카메라(201)(반사 프리즘(202))의 이동 궤적은, TS(100)에 의해 추적 및 측위되고, 그 궤적은 절대 좌표계 상에서 판명된다.
그래서, 반사 프리즘(202)의 위치를 카메라(201)의 위치로 간주하여, 상대 3차원 모델 상의 카메라(201)의 이동 궤적이 TS(100)에서 측위한 절대 좌표계 상에 있어서의 카메라(201)의 이동 궤적에 피팅되도록, 상대 3차원 모델의 축척 조정, 평행 이동, 회전 이동을 행한다.
상대 3차원 모델에 있어서의 카메라(201)의 이동 궤적(각 시각에 있어서의 위치를 추적한 궤적)을 TS(100)의 측위 데이터에 피팅시킴으로써, 상대 3차원 모델에 있어서의 카메라(201)의 이동 궤적이 절대 좌표계 상에서 기술 가능해진다. 이렇게 하여, 상대 3차원 모델에 있어서의 카메라 위치에 실제 스케일(실제의 값)이 부여된다. 상대 3차원 모델에 있어서의 각 카메라 위치가 부여됨으로써, 상대 3차원 모델에 있어서의 각 카메라의 자세도 절대 좌표계에 있어서의 값이 얻어진다. 또, 당해 상대 3차원 모델에 있어서의 각 특징점의 실제 위치도 부여된다. 이렇게 하여 상호 표정으로 얻어진 상대 3차원 모델에 있어서의 각 파라미터의 절대 좌표계 상에 있어서의 실제의 값(절대값)이 부여된다.
본 명세서에서는, 절대 좌표계 상에 있어서의 실제의 값이 절대값으로서 다루어진다. 예를 들면, 위도, 경도, 표고가 위치의 절대값이 된다. 또, 북쪽 방향을 X축, 동쪽 방향을 Y축, 연직 상방향을 Z축으로 하는 XYZ 좌표계에 있어서의 벡터의 방향이 자세의 절대값이 된다. 또한, 절대 좌표계 대신에 TS(100)를 원점으로 하는 좌표계(TS 좌표계) 등의 로컬 좌표계를 채용할 수도 있다. 이 경우, 특징점이나 카메라(201)의 외부 표정 요소의 절대값은, TS 좌표계 등의 로컬 좌표계에 있어서의 절대값이 된다.
또한, 도 3의 원리로 얻어지는 상대 3차원 모델은, 오차를 포함하고 있으며, 또 상기의 절대 표정에 있어서, 카메라(201)의 위치를 반사 프리즘(202)의 위치로 간주하는 것에 기인하는 오차도 있다. 이 때문에, 상기 절대 표정에 있어서의 카메라 위치의 궤적의 피팅은 완전하지 않고 오차를 포함하고 있다. 따라서, 절대 표정으로 얻어지는 특징점과 카메라(201)의 외부 표정 요소의 값도 오차를 포함하고 있다.
이상 서술한 바와 같이, 본 실시형태에 있어서의 절대 표정에서는, 카메라(201)의 이동 궤적을 발판으로 하여, 상호 표정에서 이용한 상대 3차원 모델에 있어서의 카메라(201)의 이동 궤적에 절대 좌표계에 있어서의 값을 부여하고, 당해 상대 3차원 모델에 실제 스케일을 부여한다. 즉, 상호 표정에서 이용한 상대 3차원 모델을 TS(100)로 실측한 카메라 위치로 좌표 변환하고, 당해 상대 3차원 모델의 스케일과 방향을 절대 좌표계 상에서 특정한다.
상기의 절대 표정에 의해, 각 화상에 있어서의 특징점의 3차원 위치, 각 화상에 대응하는 카메라(201)의 외부 표정 요소(위치와 자세)가 구해진다.
또, 상기의 절대 표정에 있어서의 상대 3차원 모델에 실제 스케일을 부여하는 처리 시에, 반사대(220)의 위치를 구속점으로서 이용해도 된다. 이 경우, 상대 3차원 모델에 실제 스케일을 부여하는 처리에 있어서의 구속 조건이 늘어나므로, 당해 처리에 있어서의 계산 효율과 계산 정밀도를 높일 수 있다.
(3) 조정 계산
상기 (2)의 절대 표정에 의해 얻어진 특징점의 위치, 및 외부 표정 요소는 오차를 포함하고 있다. 이 오차를 저감하기 위해 이하에 설명하는 조정 계산을 행한다. 또한, 조정 계산 시에 내부 표정 요소(화면 거리, 주점(主点) 위치 및 디스토션 파라미터)도 미지 파라미터로서 최적화를 행한다. 이 조정 계산에서는, 수학식 1, 수학식 2, 수학식 3의 관측 방정식을 세워, 최소 제곱법에 의한 각 파라미터(특징점(Xj, Yj, Zj)과 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i(회전 행렬)) 및 내부 표정 요소(c, xp, yp, k1~k3, p1~p2))의 최적화가 행해진다. 또한, 수학식 1에서 나타낸 Δxij, Δyij는 Brown의 디스토션 모델의 보정식인데, 사용하는 디스토션 모델은 다른 모델이어도 된다.
[수학식 1]
Figure pct00001
c: 화면 거리(초점 거리)
(Xj, Yj, Zj): 착목한 특징점의 3차원 좌표
(xij, yij): 화상 i 상에 있어서의 점 j의 화상 상의 좌표
(Xoi, Yoi, Zoi): 사진 i의 촬영 시에 있어서의 카메라(201)의 위치
(a11i~a33i): 사진 i의 촬영 시에 있어서의 카메라(201)의 자세를 나타내는 회전 행렬
(Δxij, Δyij): 내부 표정 요소에 관련되는 보정량
(xp, yp): 주점 위치 좌표
(k1~k3): 방사 방향의 디스토션 파라미터
(p1~p2): 접선 방향의 디스토션 파라미터
[수학식 2]
Figure pct00002
(Xpi, Ypi, Zpi): 화상 i를 촬영한 시각에 있어서의 반사 프리즘(202)의 위치
(LX, LY, LZ): 카메라 위치(투영 중심)와 반사 프리즘 반사점의 이간 거리
[수학식 3]
Figure pct00003
(XGj, YGj, ZGj): 발사대(220)의 위치
상기의 수학식 1에 있어서, (Xj, Yj, Zj)의 초기값은, 상술한 절대 표정으로 얻어진 3차원 모델(절대 좌표계 상에 있어서의 3차원 모델)에 있어서의 특징점의 3차원 좌표를 이용한다. (Xoi, Yoi, Zoi)의 초기값은, 절대 표정으로 얻어진 3차원 모델에 있어서의 카메라(201)의 위치를 이용한다. (a11i~a33i)의 초기값은, 절대 표정으로 얻어진 3차원 모델에 있어서의 카메라(201)의 자세를 나타내는 회전 행렬의 값을 이용한다. (Xpi, Ypi, Zpi)는, 비행 개시 전의 UAV(200)가 발사대(220) 상에 설치된 상태에 있어서 측위된 반사 프리즘(202)의 위치 데이터를 이용한다.
여기서, (Xj, Yj, Zj)로서, 촬영 화상 안에서 추출한 특징점뿐만 아니라 발사대(220)(타깃 표시(224))의 3차원 좌표도 또한 이용해도 된다. 이 경우, (xij, yij)는 화상 i 상에 있어서의 발사대(220)(타깃 표시(224))의 화상 상의 좌표가 된다. 발사대(220)(타깃 표시(224))는, UAV(200)의 비행 개시 전에 TS(100)에 의해 정밀하게 측위되어 있다. 관측점 중에 하나라고 하지만, 위치 정밀도가 높은 점이 포함됨으로써, 계산 오차를 억제하는 효과가 얻어진다.
수학식 1은, 번들 조정 계산을 행하기 위한 관측 방정식이다. 번들 조정 계산에서는, 측정 대상물의 특징점, 화상 상의 점, 투영 중심의 3점을 잇는 광속(번들)이 동일 직선 상에 있어야 한다는 공선 조건에 의거하여, 각 화상의 광속 1개 마다 수학식 1의 관측 방정식을 세워, 최소 제곱법에 의해 특징점의 좌표(Xj, Yj, Zj)와 카메라(201)의 외부 표정 요소의 파라미터(Xoi, Yoi, Zoi, a11i~a33i) 및 내부 표정 요소의 파라미터(c, xp, yp, k1~k3, p1~p2)의 동시 조정이 행해진다.
수학식 2는, 카메라(201)와 반사 프리즘(202)의 위치의 어긋남을 고려에 넣은 조정 계산을 행하기 위한 관측 방정식이다. (LX, LY, LZ)는, UAV(200)에 고정된 좌표계에 있어서의 카메라(201)와 반사 프리즘(202)의 위치 관계(오프셋 관계)를 결정하는 기지의 파라미터이다.
수학식 3은, 발사대(220)의 위치(XGj, YGj, ZGj)를 기준점(표정점)으로 하여, 특징점의 좌표(Xj, Yj, Zj)를 구속하는 식이다. 특징점의 좌표(Xj, Yj, Zj)는, 상호 표정 및 절대 표정을 이용하여 계산에 의해 구한 값이며, 오차를 포함하고 있다. 다른 한편으로, 발사대(220)의 위치(XGj, YGj, ZGj)는, TS(100)에 의해 정밀하게 측위되어 있다. 그래서, 각 특징점에 관하여 수학식 3의 계산을 행하여 그 잔차가 충분히 작거나, 혹은 전회(前回)의 계산으로부터의 잔차의 변동이 충분히 작은 (계산 결과의 변동이 수렴된 상태)가 되는 (Xj, Yj, Zj)를 구한다. 이로 인해, 특징점의 위치의 오차가 저감되고, 그것이 동시에 계산되는 수학식 1 및 수학식 2에 반영되어, 카메라(201)의 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i) 및 내부 표정 요소(c, xp, yp, k1~k3, p1~p2)의 정밀도를 높일 수 있다.
수학식 1~수학식 3을 이용한 조정 계산에서는, 특징점(Xj, Yj, Zj)과 카메라(201)의 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i(자세를 나타내는 회전 행렬)) 및 내부 표정 요소(c, xp, yp, k1~k3, p1~p2)를 파라미터로 하여, 수학식 1~수학식 3의 잔차를 산출한다. 이 때, 최소 제곱법에 의해 상기의 잔차가 수렴되는 (Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2)의 조합을 탐색한다. 구체적으로는, 수학식 1~수학식 3에서 나타나는 잔차가 작아지도록, 각 파라미터 (Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2)에 보정량을 더하여 수학식 1~수학식 3의 계산을 동시에 행하는 것을 반복한다. 그리고, 수학식 1~수학식 3이 수렴 조건을 만족하는 미지 파라미터 (Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2) 의 조합을 구한다. 수렴 조건으로서는, 잔차가 충분히 작거나, 전회의 계산으로부터의 잔차의 변동이 충분히 작은 (계산 결과의 변동이 수렴된 상태)를 이용한다.
(우위성/기타)
상술한 방법에서는, 발사대(220)를 항공 사진 측량의 대상(예를 들면 지표)에 설치된 표정점으로서 이용함으로써, 종래 이용되고 있던 표정용 타깃을 이용하지 않고 높은 정밀도의 항공 사진 측량이 가능해진다. 본 기술에서는, 발사대(220)의 위치의 특정은, UAV(200)의 비행 개시 전의 단계에서 행한 TS(100)에 의한 반사 프리즘(202)의 측위에 의해 행해진다. 이 때의 측위는, UAV(200)의 추적 및 측위에 따른 처리의 일환이며, 발사대(220)를 직접적인 대상으로 한 측위 작업이 아니다. 그 때문에, 발사대(220)의 위치의 특정을 위한 수고는 늘지 않는다. 또, 발사대(220)를 설치하는 위치는 임의이며, 발사대(220)의 위치 결정을 위한 쓸데없는 작업은 필요없다.
본 기술은, 종래부터 행해지고 있는 표정용 타깃의 이용을 배제하는 것이 아니다. 따라서, 본 기술에 있어서, 표정용 타깃을 지표에 배치하고, 화상으로부터 추출한 특징점에 대한 구속 조건을 추가로 더하는 것도 가능하다. 이 경우, 수학식 3에 있어서의 (XGj, YGj, ZGj)로서 발사대(220)의 위치 (XG1, YG1, ZG1)에 더하여 표정용 타깃 (XGj, YGj, ZGj)(j=2, 3, 4··)의 위치를 이용하여 조정 계산을 행한다.
(하드웨어의 구성)
도 4에는, 상술한 (1) 상호 표정, (2) 절대 표정, (3) 조정 계산을 행하는 측량 데이터 처리 장치(400)의 블록도가 나타나 있다. 측량 데이터 처리 장치(400)는, 컴퓨터로서 기능한다. 측량 데이터 처리 장치(400)는, PC(퍼스널 컴퓨터)나 WS(워크 스테이션)를 이용하여 구성되어 있다.
측량 데이터 처리 장치(400)를 전용 전자 회로로 구성할 수도 있다. 예를 들면, FPGA 등의 전자 회로를 이용하여 측량 데이터 처리 장치(400)의 일부 또는 전부를 구성할 수도 있다. PC나 WS를 이용하여 측량 데이터 처리 장치(400)를 구성한 경우, 유저는, 당해 PC나 WS의 유저 인터페이스(GUI(그래피컬 유저 인터페이스) 등)를 이용하여, 측량 데이터 처리 장치(400)의 조작을 행한다. 측량 데이터 처리 장치(400)는, 측위 데이터 접수부(300), 화상 데이터 접수부(301), 상호 표정부(302), 절대 표정부(303), 조정 계산 실행부(304), 구속점 취득부(305), 처리 제어부(308), 3차원 모델 작성부(309), 통신부(310), 기억부(311), 표정점 추출부(312)를 구비하고 있다.
측위 데이터 접수부(300)는, TS(100)가 측위한 UAV(200)의 위치 데이터(반사 프리즘(202)의 위치 데이터)를 접수한다. 이 위치 데이터는, 비행 개시 전의 발사대(220) 상에 있어서의 반사 프리즘(202)의 위치, 및 화상 i를 촬영한 시각에 있어서의 반사 프리즘(202)의 절대 좌표계에 있어서의 위치(Xpi, Ypi, Zpi)이다.
화상 데이터 접수부(301)는, 카메라(201)가 촬영한 화상의 화상 데이터를 접수한다. 이 화상 데이터는, 촬영 시각, 촬영 시각에 있어서의 UAV(200)에 탑재된 IMU의 데이터(UAV(200)의 자세의 데이터)와 관련지어진 상태로, 화상 데이터 접수부(301)에서 접수된다. UAV(200)에 있어서의 카메라(201)의 외부 표정 요소(UAV(200)에 대한 카메라(201)의 자세와 위치)는 기지이므로, UAV(200)의 자세를 알 수 있다면, 그 때의 카메라(201)의 자세도 알 수 있다.
상호 표정부(302)는, 화상 데이터 접수부(301)가 접수한 화상 데이터 중에서, 중복된 대상이 촬영된 복수의 화상을 추출하고, 그것을 대상으로 상술한 상호 표정을 행한다. 이 처리에서는, 연속해서 다수 매가 촬영된 각 화상으로부터 추출한 다수의 특징점과 각 화상을 촬영한 카메라(201)의 외부 표정 요소의 상대 관계가 특정된 상대 3차원 모델이 작성되고, 각 화상에 대응한 카메라의 상대적인 외부 표정 요소가 산출된다. 또한, 상기의 상호 표정 시에, 발사대(220)의 위치를 구속점으로서 이용하는 것도 가능하다.
절대 표정부(303)는, 상호 표정부(302)에서 행한 상호 표정의 결과를 이용하여, 상술한 절대 표정을 행한다. 이 처리에서는, 상호 표정으로 얻은 상대 3차원 모델에 있어서의 카메라(201)의 이동 경로 S와, TS(100)가 추미한 UAV(200)(반사 프리즘(202))의 이동 경로 S'가 비교되고, 이동 경로 S와 이동 경로 S'의 차가 최소가 되도록, 상대 3차원 모델의 축척 조정, 평행 이동, 회전 이동을 행한다. 상기의 차가 최소가 된 단계에서, 상대 3차원 모델에 실제 스케일이 부여되고, 또 절대 좌표계(이동 경로 S를 기술하는 절대 좌표계)에 있어서의 방향이 결정된다. 또한, 상기의 절대 표정 시에, 발사대(220)의 위치를 구속점으로서 이용하는 것도 가능하다.
조정 계산 실행부(304)는, 수학식 1~수학식 3을 이용한 조정 계산의 처리를 행한다. 이 처리에서는, 수학식 1의 번들 조정 계산과, 수학식 2의 카메라(201)의 위치와 반사 프리즘(202)의 위치의 차이에 기인하는 오차를 최소화하는 조정 계산, 및 수학식 3의 구속 조건에 따른 계산이 동시에 행해지고, 화상 안에서 추출한 특징점의 3차원 좌표, 각 화상에 대응한 카메라(201)의 외부 표정 요소 및 내부 표정 요소가 최적화된다.
구속점 취득부(305)는, 반사대(220)(타깃 표시(224))의 촬영 화상 안에 있어서의 위치 및 절대 좌표계 상에 있어서의 위치를 취득한다. 반사대(220)(타깃 표시(224))의 위치는, 이하와 같이 하여 취득된다. 우선, 비행 개시 전의 상태에서 발사대(220) 상에 설치된 UAV(200)의 반사 프리즘(202)의 절대 좌표계에 있어서의 위치가 TS(100)에 의해 계측된다. UAV(200)가 발사대(220) 상에 설치된 상태에 있어서의 반사 프리즘(202)과 반사대(220)(타깃 표시(224))의 위치 관계는 기지이므로, 발사대(220) 상에 설치된 UAV(200)의 반사 프리즘(202)의 위치를 알 수 있음으로써, 반사대(220)(타깃 표시(224))의 위치가 산출된다. 이 처리 및 그 결과의 취득이 구속점 취득부(305)에서 행해진다.
처리 제어부(308)는, 측량 데이터 처리 장치(400)에서 행해지는 처리의 순서나 타이밍을 제어한다. 처리 제어부(308)의 기능은, 측량 데이터 처리 장치(400)를 구성하는 하드웨어(예를 들면, PC나 WS)가 구비하는 CPU에 의해 담당된다. 3차원 모델 작성부(309)는, 조정 계산이 행해진 결과 얻어진 특징점의 3차원 좌표를 이용하여 카메라(201)가 촬영한 화상에 의거한 3차원 모델의 작성을 행한다. 화상에 의거한 3차원 모델의 작성에 대해서는, 예를 들면 일본국 특허공개 WO2011/070927호 공보, 일본국 특허공개 2012-230594호 공보, 일본국 특허공개 2014-35702호 공보 등에 기재되어 있다.
통신부(310)는, 외부 기기와의 사이에서 통신을 행한다. PC나 WS를 이용하여 측량 데이터 처리 장치(400)를 구성한 경우, 통신부(310)는, 이용한 PC나 WS의 인터페이스 기능이나 통신 기능을 이용하여 구성된다. 기억부(311)는, 측량 데이터 처리 장치(400)의 동작에 필요한 프로그램이나 데이터, 측량 데이터 처리 장치(400)의 동작의 결과 얻어진 데이터 등을 기억한다. PC나 WS를 이용하여 측량 데이터 처리 장치(400)를 구성한 경우, 기억부(311)로서, 이용한 PC나 WS의 반도체 메모리나 하드 디스크 장치가 이용된다.
표정점 추출부(312)는, 화상 안에서 표정점으로서 이용되는 특징점의 추출 및 발사대(220)(타깃 표시(224))의 추출을 행한다. 특징점의 추출은, 소벨 필터나 가우시안 필터 등을 이용한 화상 안에서의 특징점 추출 기술을 이용하여 행한다. 발사대(220)의 추출은, 공지의 화상 인식 기술을 이용하여 행한다.
(처리의 순서의 일례)
도 7은, 측량 데이터 처리 장치(400)에서 행해지는 처리의 일례를 나타내는 플로차트이다. 도 7의 처리를 실행하는 프로그램은, 측량 데이터 처리 장치(400)의 기억부(311)에 기억되고, 처리 제어부(308)에 의해 실행된다. 당해 프로그램은, 적당한 기억 매체에 기억되고, 거기에서 제공되는 형태도 가능하다.
우선, UAV(200)를 발사대(220) 상에 설치한다(단계 S101). 이 때, 위치 결정부(221, 222)를 이용하여, 발사대(220)에 대한 UAV(200)의 자세와 위치를 미리 정해진 관계가 되도록 한다. 또한, 여기에서는, 위치와 자세는 절대 좌표계 상에서의 것를 다루는 것으로 한다.
다음으로, 비행을 개시하기 전의 단계에서, UAV(200)의 측위를 TS(100)에 의해 행한다(단계 S102). 또한, TS(100)는, 기지의 위치에 설치되고, 자세의 기준이 특정된 상태의 것을 이용한다. 예를 들면, TS(100)의 위치의 경도, 위도, 평균 해면으로부터의 고도는, 미리 특정되고, 또 TS(100)의 광축의 방향은, 수평면으로부터의 앙각 또는 부각(俯角), 연직 상방향에서 본 북쪽을 기준으로 한 시계 회전 방향의 각도로 계측되는 것이 미리 정해져 있다. 단계 S102의 작업에서는, TS(100)에 의해 반사 프리즘(202)의 측위가 행해진다. UAV(200)의 위치(예를 들면, IMU의 위치나 중심의 위치), 반사 프리즘(202)의 반사 중심의 위치, 카메라(201)의 투영 중심(광학 원점)의 위치의 관계는 미리 기지의 정보이므로, 단계 S102의 작업에 의해, UAV(200) 및 카메라(201)의 위치가 판명된다.
UAV(200)의 위치를 구했다면, 발사대(220)의 위치(이 예에서는 타깃 표시(224)의 중심의 위치)를 취득한다(단계 S103). 이 처리는, 구속점 취득부(305)에서 행해진다.
발사대(220)의 위치는, 이하와 같이 하여 구해진다. 이 단계에서는, 발사대(220) 상에 있어서의 UAV(200)의 위치가 TS(100)에 의해 계측되고 있다. 여기서, UAV(200)의 위치와 발사대(220)의 자세와 위치의 관계는, 단계 S101에서 확정되어 있으며, 기지의 정보이다. 따라서, 단계 S102에서 얻은 UAV(200)의 위치 데이터에 의거하여, 발사대(220)의 위치가 구해진다.
또, 이하와 같이 생각할 수도 있다. 우선, 단계 S101에 있어서, 반사 프리즘(202)의 위치가 특정되어 있다. 여기서, 반사 프리즘(202)의 위치와 발사대(220)의 위치(타깃 표시(224)의 중심의 위치)의 관계는 특정되고, 기지의 정보이다. 따라서, 발사대(220) 상에 놓여진 UAV(200)의 반사 프리즘(202)의 위치 정보를 얻음으로써, 발사대(220)의 위치를 구할 수 있다.
다음으로, UAV(200)의 비행을 개시하고, 카메라(201)를 이용한 항공 사진 측량의 대상(지표나 건축 구조물 등)의 공중 촬영을 행한다(단계 S104). 이 때, TS(100)에 의해, 비행하고 있는 UAV(200)의 추미와 측위가 계속해서 행해진다. 또, 촬영한 사진 화상 안에 발사대(220)가 찍힌 것이 복수 매 포함되도록 한다.
공중 촬영이 종료되면, 카메라(201)가 촬영한 화상 데이터 및 TS(100)의 UAV(200)에 따른 측위 데이터를 취득한다(단계 S105). 또한, UAV(200)의 비행 개시 전의 단계의 측위 데이터(발사대(220) 상에 있어서의 UAV(200)의 측위 데이터)를 이 단계에서 접수해도 된다. 화상 데이터와 측위 데이터를 취득했다면, 카메라(201)가 촬영한 사진 화상, 그 촬영 시각, 당해 촬영 시각에 있어서 TS(100)가 측위한 UAV(200)의 위치의 데이터를 관련짓고, 그것을 기억부(311)에 기억한다.
다음으로, 공중 촬영 화상 안에서 특징점의 추출 및 발사대(220)(타깃 표시(224))의 추출을 행한다(단계 S106). 이 처리는, 표정점 추출부(312)에서 행해진다.
다음으로, UAV(200)로부터 촬영한 화상에 의거하여 스케일 없는 3차원 모델(상대 3차원 모델)의 작성이 행해진다(단계 S107). 이 처리는, 상호 표정부(302)에서 행해진다. 이 처리에서는, 도 2의 원리에 의해, 표정점 Pj를 이용한 촬영 대상의 상대 3차원 모델의 작성이 행해진다. 여기에서는, 표정점 Pj로서, 화상 안에서 추출된 특징점이 이용되지만, 그에 덧붙여 발사대(220)를 이용할 수도 있다. 이 처리에 있어서 상호 표정이 행해지며, 각 화상에 대응한 카메라(201)의 상대적인 외부 표정 요소를 구한다.
다음으로, 단계 107에서 작성한 상대 3차원 모델에 있어서의 카메라(201)의 이동 경로 S가, TS(100)가 측위한 반사 프리즘(202)의 이동 경로 S'에 피팅되도록 상대 3차원 모델의 축척 조정, 평행 이동, 회전 이동을 행한다. 이 처리에 의해, 상대 3차원 모델에 대해, 반사 프리즘(202)의 위치로의 좌표 변화가 실시되고, 상대 3차원 모델에 실제 스케일이 부여된다(단계 S108). 이 처리는, 절대 표정부(303)에서 행해진다.
단계 S108의 처리에 의해, 단계 107에서 작성한 상대 3차원 모델이 절대 좌표계 상에서 기술되는 3차원 모델이 되고, 절대 좌표계에 있어서의 각 화상의 특징점의 3차원 좌표(Xj, Yj, Zj), 및 화상 i에 대응하는 절대 좌표계에 있어서의 카메라의 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i)가 얻어진다. 또한, 이 처리에 있어서, 발사대(220)의 위치를 구속 조건으로서 이용해도 된다.
다음으로 조정 계산이 행해진다(단계 S109). 이 처리는, 조정 계산 실행부(304)에서 행해진다. 이 처리에서는, 수학식 1~수학식 3의 최소 제곱근을 계산함으로써, (Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2)의 최적화를 행한다. 여기서, 단계 S110의 판정을 행하고, 수렴 조건을 만족한 경우에 처리를 종료하고, 특징점의 3차원 좌표(Xj, Yj, Zj), 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i) 및 내부 표정 요소(c, xp, yp, k1~k3, p1~p2)의 값을 확정한다. 수렴 조건을 만족하지 않는 경우, 미지 파라미터((Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2))를 갱신하고(단계 S111), 다시 한 번 조정 계산을 행한다. 실제로는, 미지 파라미터의 갱신이 여러번 반복해서 행해지고, 수렴 조건이 만족된 단계에서 (Xj, Yj, Zj), (Xoi, Yoi, Zoi, a11i~a33i), (c, xp, yp, k1~k3, p1~p2)의 값이 확정된다.
(끝맺음)
상호 표정에 의해, 카메라(201)의 이동 경로 S를 기술하는 상대 3차원 모델이 작성된다. 다른 한편으로 UAV(200)에 탑재된 반사 프리즘(202)은 TS(100)에서 측위되고, 그 절대 좌표계 상에 있어서의 이동 경로 S'가 실측값으로서 특정된다.
상호 표정 후에, 절대 표정을 행한다. 절대 표정에서는, 절대 좌표계 상에 있어서의 실측값인 이동 경로 S'에 상대 3차원 모델 상의 이동 경로 S가 피팅되도록, 상대 3차원 모델의 축척 조정, 평행 이동, 회전을 행한다. 절대 좌표계 상에 있어서, 이동 경로 S'에 이동 경로 S가 피팅됨으로써, 상호 표정으로 얻은 상대 3차원 모델의 절대 좌표계 상에 있어서의 방향과 실제 스케일이 부여된다.
절대 표정 후에, 수학식 1~수학식 3의 조정 계산을 동시에 행하여, 촬영 대상의 특징점의 3차원 좌표(Xj, Yj, Zj), 카메라(201)의 외부 표정 요소(Xoi, Yoi, Zoi, a11i~a33i) 및 내부 표정 요소(c, xp, yp, k1~k3, p1~p2)의 최적화를 행한다. 이 때, 수학식 1의 번들 조정 계산과 동시에, 수학식 2의 조정 계산을 동시에 행함으로써, 카메라(201)와 반사 프리즘(202)의 위치의 어긋남에 기인하는 각 파라미터에 대한 오차의 영향이 저감된다. 덧붙여, 발사대(220)의 위치 데이터를 이용한 수학식 3의 구속 조건에 따른 조정 계산을 동시에 행함으로써, 수학식 1~수학식 3을 빠르게 수렴시킬 수 있고, 또 높은 계산 정밀도를 얻을 수 있다.
또, 본 기술은, 미리 위치를 특정한 다수의 표정점(표정용 타깃)을 이용하지 않고 측량 대상의 3차원 모델의 작성을 할 수 있는 우위성이 있다. 다른 한편으로, 미리 위치를 특정한 다수의 표정점을 이용하지 않기 때문에, 측량 현장 고유의 파라미터의 편차나 오차 요인이 존재하는 경우가 있다. 고정된 내부 표정 요소를 이용한 경우, 상기의 편차나 오차 요인이 조정 계산(번들 조정)에 악영향을 준다. 이에 대해, 본 기술에서는, 내부 표정 요소를 고정하지 않고, 내부 표정 요소도 포함하여 조정 계산을 행하므로, 상기의 악영향을 억제할 수 있다.
(기타)
도 1에는, UAV(200)를 발사대(220)에 대한 자세 및 위치를 물리적으로 결정하는 수단(위치 결정부(221, 222))이 나타나 있는데, 그 대신에, 혹은 그에 더하여 발사대(220)에 대한 UAV(200)의 자세와 위치를 결정하는 표시를 발사대(220)에 부여해도 된다. 이 경우, 이 표시를 기준으로 UAV(200)를 발사대(220)에 설치하는 것이 행해진다.
UAV(200)의 형상이 중심축에 대해 대칭이며, 이 중심축 상에 반사 프리즘이 배치되고, 발사대(220)에 UAV(200)를 설치한 상태에 있어서, UAV(200)의 중심축과 발사대(220)의 중심(타깃 표시(224)의 중심)이 일치하는 경우, 설치 상태에 있어서의 발사대(220)에 대한 UAV(200)의 자세는 따지지 않는다.
발사대(220)는, 공중 촬영 화상 안에서 식별할 수 있는 타깃 표시 기능을 갖고 있으면 된다. 따라서, 식별하기 쉬운 형상이나 색으로 하여, 타깃 표시(224)를 형성하지 않는 구조로 하는 것도 가능하다.
100…TS(토탈 스테이션), 200…UAV, 201…카메라, 202…반사 프리즘, 220…발사대, 221…위치 결정부, 222…위치 결정부, 224…타깃 표시

Claims (10)

  1. 무인 항공기가 설치되는 무인 항공기의 설치대로서,
    항공 사진 측량에 이용하는 표정(標定)점을 구성하는 타깃 표시 기능과,
    비행 전의 단계에 있어서의 무인 항공기의 상기 타깃 표시 기능에 대한 위치가 특정된 상태에서 당해 설치대에 대한 상기 무인 항공기의 위치를 결정하는 구조 및/또는 표시를 구비하는, 무인 항공기의 설치대.
  2. 청구항 1에 있어서,
    상기 무인 항공기는 레이저 측위를 위한 반사 타깃을 구비하고,
    상기 무인 항공기가 당해 설치대에 탑재된 상태에 있어서, 상기 타깃 표시 기능과 상기 반사 타깃의 위치 관계가 특정되어 있는, 무인 항공기의 설치대.
  3. 청구항 2에 있어서,
    상기 반사 타깃의 위치가 측위됨으로써, 당해 설치대의 위치가 특정되는, 무인 항공기의 설치대.
  4. 청구항 1 내지 청구항 3 중 어느 한 항에 기재된 무인 항공기의 설치대를 이용한 측량 방법으로서,
    상기 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치를 측정하는 제1 단계와,
    상기 제1 단계의 결과에 의거하여, 상기 설치대의 위치를 특정하는 제2 단계와,
    비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영하는 제3 단계와,
    상기 제2 단계에서 얻은 상기 설치대의 위치 및 상기 제3 단계에서 얻은 촬영 화상에 의거하여 측량 대상의 3차원 데이터를 계산하는 제4 단계를 갖는, 측량 방법.
  5. 청구항 4에 있어서,
    상기 설치대 상에 상기 무인 항공기를 설치한 상태에 있어서의 상기 무인 항공기의 위치와 상기 설치대의 위치의 관계는 미리 특정되어 있으며,
    상기 설치대 상에 설치된 상태에서 측위된 상기 무인 항공기의 위치와 상기 특정된 내용에 의거하여, 상기 설치대의 위치의 특정이 행해지는, 측량 방법.
  6. 청구항 4 또는 청구항 5에 있어서,
    상기 제4 단계에 있어서, 상기 설치대를 표정점으로서 이용하는, 측량 방법.
  7. 청구항 4 내지 청구항 6 중 어느 한 항에 있어서,
    상기 제4 단계에 있어서, 상기 설치대의 위치를 구속점으로 하여, 상기 항공 사진 측량의 대상을 촬영한 카메라의 외부 표정 요소 및 내부 표정 요소를 최적화하는 조정 계산이 행해지는, 측량 방법.
  8. 청구항 1 내지 청구항 3 중 어느 한 항에 기재된 무인 항공기의 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치 데이터를 접수하는 위치 데이터 접수부와,
    상기 무인 항공기의 위치 데이터에 의거하여, 상기 설치대의 위치를 특정하는 위치 특정부와,
    비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영한 화상의 화상 데이터를 접수하는 화상 데이터 접수부와,
    상기 설치대의 상기 위치 및 상기 화상 데이터에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터의 계산을 행하는 계산부를 구비한, 측량 장치.
  9. 청구항 1 내지 청구항 3 중 어느 한 항에 기재된 무인 항공기의 설치대를 이용한 측량 시스템으로서,
    상기 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치를 측정하는 수단과,
    상기 무인 항공기의 위치에 의거하여, 상기 설치대의 위치를 특정하는 수단과,
    비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영하는 수단과,
    상기 설치대의 상기 위치 및 상기 촬영으로 얻은 촬영 화상에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터를 계산하는 수단을 갖는, 측량 시스템.
  10. 컴퓨터로 하여금 판독하게 하여 실행시키는 프로그램으로서,
    컴퓨터로 하여금
    청구항 1 내지 청구항 3 중 어느 한 항에 기재된 무인 항공기의 설치대에 설치된 상태에 있어서의 상기 무인 항공기의 위치 데이터를 접수하게 하고,
    상기 무인 항공기의 위치 데이터에 의거하여, 상기 설치대의 위치를 특정하게 하고,
    비행하고 있는 상기 무인 항공기로부터 상기 설치대 및 항공 사진 측량의 대상을 촬영한 화상의 화상 데이터를 접수하게 하고,
    상기 설치대의 상기 위치 및 상기 촬영으로 얻은 촬영 화상에 의거하여 상기 항공 사진 측량의 대상의 3차원 데이터의 계산을 행하게 하는, 프로그램.

KR1020207022945A 2018-02-14 2019-02-14 무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램 KR20200140239A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-024136 2018-02-14
JP2018024136A JP7043283B2 (ja) 2018-02-14 2018-02-14 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム
PCT/JP2019/005298 WO2019160022A1 (ja) 2018-02-14 2019-02-14 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム

Publications (1)

Publication Number Publication Date
KR20200140239A true KR20200140239A (ko) 2020-12-15

Family

ID=67619422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207022945A KR20200140239A (ko) 2018-02-14 2019-02-14 무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램

Country Status (6)

Country Link
US (1) US11221216B2 (ko)
EP (1) EP3754298A4 (ko)
JP (1) JP7043283B2 (ko)
KR (1) KR20200140239A (ko)
CN (1) CN112005077B (ko)
WO (1) WO2019160022A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043283B2 (ja) * 2018-02-14 2022-03-29 株式会社トプコン 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム
JP7161298B2 (ja) * 2018-03-26 2022-10-26 株式会社トプコン ターゲット装置、測量システム
CN109976370B (zh) * 2019-04-19 2022-09-30 深圳市道通智能航空技术股份有限公司 立面环绕飞行的控制方法、装置、终端及存储介质
JP7303658B2 (ja) 2019-04-24 2023-07-05 株式会社トプコン 赤外線写真画像の処理方法、赤外線写真画像の処理装置、および赤外線写真画像の処理用プログラム
US11511885B2 (en) * 2020-03-13 2022-11-29 Wing Aviation Llc Adhoc geo-fiducial mats for landing UAVs
JP2022023592A (ja) 2020-07-27 2022-02-08 株式会社トプコン 測量システム、測量方法および測量用プログラム
CN114740511B (zh) * 2022-06-13 2022-09-20 广州地铁设计研究院股份有限公司 基于测量机器人的无人机定位方法及无人机定位系统
CN115278074B (zh) * 2022-07-26 2023-05-12 城乡院(广州)有限公司 基于宗地红线的无人机拍摄方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006148A (ja) 2012-06-25 2014-01-16 Topcon Corp 航空写真撮像方法及び航空写真撮像システム
JP2017171289A (ja) 2016-03-24 2017-09-28 レカロ チャイルド セーフティ ゲーエムベーハー ウント コー. カーゲーRECARO Child Safety GmbH & Co. KG チャイルド・シート装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5124319B2 (ko) 1972-11-11 1976-07-23
JP5124319B2 (ja) 2008-03-21 2013-01-23 株式会社トプコン 測量機、測量システム、測定対象の検出方法、および測定対象の検出プログラム
WO2011070927A1 (ja) 2009-12-11 2011-06-16 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
JP5725922B2 (ja) 2011-03-25 2015-05-27 株式会社トプコン 測量システム及びこの測量システムに用いる測量用ポール及びこの測量システムに用いる携帯型無線送受信装置
JP5711039B2 (ja) 2011-04-27 2015-04-30 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理方法、三次元点群位置データ処理システムおよびプログラム
JP5955028B2 (ja) 2012-02-28 2016-07-20 株式会社トプコン 画像処理装置、画像処理方法および画像処理用のプログラム
JP5832341B2 (ja) 2012-03-09 2015-12-16 株式会社トプコン 動画処理装置、動画処理方法および動画処理用のプログラム
NO334183B1 (no) * 2012-03-22 2014-01-13 Prox Dynamics As Metode og anordning for å kontrollere og overvåke det omliggende område til et ubemannet luftfartøy
JP5963353B2 (ja) 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP6290735B2 (ja) 2014-07-11 2018-03-07 株式会社パスコ 測量方法
JP6346873B2 (ja) 2015-06-08 2018-06-20 株式会社クラレ 人工皮革
FR3039519B1 (fr) * 2015-07-30 2019-01-25 Airbus Station d’accueil de drone et ensemble de gestion d’une telle station d’accueil.
JP6817806B2 (ja) 2016-12-21 2021-01-20 株式会社トプコン 演算装置、演算方法、演算システムおよびプログラム
JP6826888B2 (ja) 2017-01-11 2021-02-10 株式会社トプコン 測量装置、無人航空機の探索方法、測量システムおよびプログラム
US11017679B2 (en) 2017-01-13 2021-05-25 Skydio, Inc. Unmanned aerial vehicle visual point cloud navigation
CN110998230B (zh) 2017-08-01 2021-11-02 认为股份有限公司 作业机械的驾驶系统
US11064184B2 (en) * 2017-08-25 2021-07-13 Aurora Flight Sciences Corporation Aerial vehicle imaging and targeting system
JP7037302B2 (ja) 2017-09-06 2022-03-16 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
JP7043283B2 (ja) 2018-02-14 2022-03-29 株式会社トプコン 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006148A (ja) 2012-06-25 2014-01-16 Topcon Corp 航空写真撮像方法及び航空写真撮像システム
JP2017171289A (ja) 2016-03-24 2017-09-28 レカロ チャイルド セーフティ ゲーエムベーハー ウント コー. カーゲーRECARO Child Safety GmbH & Co. KG チャイルド・シート装置

Also Published As

Publication number Publication date
WO2019160022A8 (ja) 2020-06-04
JP2019138842A (ja) 2019-08-22
CN112005077A (zh) 2020-11-27
WO2019160022A1 (ja) 2019-08-22
EP3754298A4 (en) 2021-11-17
US11221216B2 (en) 2022-01-11
CN112005077B (zh) 2023-05-26
US20210131804A1 (en) 2021-05-06
JP7043283B2 (ja) 2022-03-29
EP3754298A1 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
KR20200140239A (ko) 무인 항공기의 설치대, 측량 방법, 측량 장치, 측량 시스템 및 프로그램
JP7037302B2 (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
US10767990B2 (en) Device, method, and system for processing survey data, and program therefor
KR102664900B1 (ko) 드론을 이용한 지상기준점 측량장치 및 그 방법
EP3368859B1 (en) Method of solving initial azimuth for survey instruments, cameras, and other devices with position and tilt information
US10970924B2 (en) Reconstruction of a scene from a moving camera
EP0579187B1 (en) Guidance and targeting system
CN109708649B (zh) 一种遥感卫星的姿态确定方法及系统
KR101346323B1 (ko) 지상기준점과 부가매개변수를 이용한 비측량용 디지털 카메라 촬영 시스템의 자체검정 방법
US20180240253A1 (en) Device, method, and system for tracking unmanned aerial vehicle, and program therefor
KR20090064679A (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
KR102239562B1 (ko) 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템
Tjahjadi et al. Single frame resection of compact digital cameras for UAV imagery
JP2018146524A (ja) 測量システム
CN103411587A (zh) 定位定姿方法及系统
RU2571300C2 (ru) Способ дистанционного определения абсолютного азимута целевой точки
JP5716273B2 (ja) 捜索目標位置特定装置、捜索目標位置特定方法及びプログラム
CN113340272B (zh) 一种基于无人机微群的地面目标实时定位方法
JP7241517B2 (ja) 航法装置、航法パラメータ計算方法およびプログラム
CN115096269B (zh) 摄影测量方法、系统及gnss接收机
Wu Photogrammetry: 3-D from imagery
Galilea et al. Calibration of a high-accuracy 3-D coordinate measurement sensor based on laser beam and CMOS camera
CN108981700B (zh) 一种定位定姿方法及装置
Toth Direct platform orientation of multisensor data acquisition systems
Madawalagama et al. Assessment of uav based low cost photogrammetric system for aerial mapping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application