KR102015388B1 - 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner - Google Patents

3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner Download PDF

Info

Publication number
KR102015388B1
KR102015388B1 KR1020190007278A KR20190007278A KR102015388B1 KR 102015388 B1 KR102015388 B1 KR 102015388B1 KR 1020190007278 A KR1020190007278 A KR 1020190007278A KR 20190007278 A KR20190007278 A KR 20190007278A KR 102015388 B1 KR102015388 B1 KR 102015388B1
Authority
KR
South Korea
Prior art keywords
information
point cloud
virtual reality
reality space
ground
Prior art date
Application number
KR1020190007278A
Other languages
Korean (ko)
Inventor
김승서
김용돈
Original Assignee
주식회사 지공간솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지공간솔루션 filed Critical 주식회사 지공간솔루션
Priority to KR1020190007278A priority Critical patent/KR102015388B1/en
Application granted granted Critical
Publication of KR102015388B1 publication Critical patent/KR102015388B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

The present invention relates to a system and method for providing a virtual reality space map based on orthophotograph 3D point cloud DB construction using an unmanned aerial vehicle and a 3D lidar scanner for the ground and, more specifically, to a system and method for providing a virtual reality space map based on orthophotograph 3D point cloud DB construction using an unmanned aerial vehicle and a 3D lidar scanner for the ground, wherein after performing a low altitude aerial survey using an ultralight unmanned aerial vehicle, an orthophotograph map is produced using 3d information obtained through a mobile mapping device or the 3D lidar scanner for the ground, and the produced orthophotograph map is applied to an inefficient current situation surveying work of a poor environment for repeated survey performed by many existing people, thereby efficiently replacing and saving survey personnel and time and providing a new survey solution.

Description

무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법{3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner}3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner}

본 발명은 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법에 관한 것으로, 더욱 상세하게는 초경량 무인항공기(Unmanned Aerial Vehicle)를 활용하여 저고도 항공사진측량을 실시한 후, 지상용 3D라이다스캐너 혹은 모바일 맵핑장치를 통해 취득된 3D 정보를 이용하여 정사영상 지도를 제작하여 기존의 여러 명이 반복적으로 측량하는 열악한 환경의 비능률적인 현황측량 실무 작업에 적용시켜, 측량인력 및 작업시간을 효율적으로 대체 및 절약하고, 새로운 측량 솔루션을 제공하기 위한 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법에 관한 것이다.The present invention relates to a system and method for providing a virtual reality space map based on an orthogonal image three-dimensional point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner, and more particularly, to an ultra-light unmanned aerial vehicle. After conducting low altitude aerial surveys, and making ortho maps using 3D information acquired through 3D lidar scanners or mobile mapping devices on the ground, inefficient current surveys in poor environments where many existing people repeatedly survey Virtual reality space based on orthoimage 3D point cloud DB using unmanned aerial vehicle and 3D lidar scanner to provide new surveying solution for efficient replacement and saving of surveying manpower and working time. It relates to a map providing system and a providing method.

지상을 촬영하고, 촬영된 영상으로부터 정상영상 또는 수치지도를 제작하거나 촬영한 영상의 구조물 정보를 취득하기 위하여 항공기에 카메라, GPS(위성항법장치) 장비, INS(관성항법장치) 장비를 장착함으로써 항공기로는 지상 위를 비행하면서 지상을 카메라로 촬영하고, GPS 장비와 INS 장비로는 촬영하는 카메라의 위치정보와 자세정보를 동시에 취득하고 있다.The aircraft is equipped with a camera, a GPS (satellite navigation device), and an INS (inertial navigation device) equipment to shoot the ground, make a normal image or a digital map from the captured image, or acquire structure information of the captured image. Roh is shooting the ground with a camera while flying on the ground, and acquires the position information and attitude information of the camera to shoot with GPS and INS equipment.

이러한 GPS 장비와 INS 장비는 카메라가 촬영하는 영상과 연동하여 위치정보와 자세정보를 제공하기 때문에 사용자는 널리 사용되는 공선조건식 등을 이용하여 카메라가 촬영한 영상과 연계된 각종 정보를 추출하고, 추출된 정보를 바탕으로 영상의 기하왜곡을 보정하거나 정사영상이나 수치지도 등을 제작하고 있다.Since GPS and INS devices provide location information and attitude information in conjunction with the images taken by the camera, the user extracts and extracts various information associated with the images taken by the camera using a widely used collinear conditional expression. Based on this information, geometric distortions of images are corrected, ortho-images and digital maps are produced.

그러나, GPS 장비나 INS 장비로부터 취득하는 정보는 수 미터급의 위치오차를 내포하고 있으며, 이에 따라 정확한 위치정보와 다양한 속성정보의 취득에 큰 어려움이 있다.However, the information acquired from the GPS equipment or the INS equipment includes a position error of several meters, and thus there is a great difficulty in acquiring accurate position information and various attribute information.

한편, 유인항공기를 이용하여만 항공사진측량을 할 수 있었고, 기후조건 및 비행허가 등이 좋지 않거나 매우 복잡하여 실제로 촬영할 수 있는 날짜는 1년에 60일 정도밖에 되지 않았고 비용도 만만치 않아 쉽지 않았고, 또한 소규모 지역은 그나마도 인력으로 밖에 수행할 수 없었다. On the other hand, it was possible to conduct aerial surveys only using manned aircraft, and due to poor weather conditions or flight permits, the actual shooting date was only about 60 days a year and the cost was not easy. In addition, small areas could only be carried out by manpower.

그러나, 무인항공기를 활용하게 되면 기후 및 공간에 크게 영향을 받지 않고 현장에서 수시로 필요 할 때마다 1인 작업으로도 측량작업을 할 수 있어, 앞으로 모든 건설 산업 현장에 접목시켜 획기적인 측량시스템으로 적용할 수 있도록 개발 연구하고 있다.However, if the unmanned aerial vehicle is used, it is not influenced by the climate and space and can be surveyed by one person whenever necessary at the site. Therefore, it can be applied to all construction industry sites and applied as a landmark surveying system. Research and development to help.

또한, 영상처리된 3D 군집 데이터를 활용하여 가상현실(VR)시스템을 개발 현장에 가지 않고도 실무를 관리할 수 있는 4차 산업에 대응하는 새로운 기술 개발이 필요하게 되었다.In addition, it is necessary to develop a new technology corresponding to the 4th industry that can manage the practicality without using the virtualized (VR) system by using the processed 3D cluster data.

(비특허문헌 001) Casbeer, D W, Li, S M, Beardd, R W, McLain, T W and Mehra, R K, 2008, “Fire Monitoring with Multiple Small UAVs”Proceedings of the American Control Conference, Portland, USA Colomina.(Non-Patent Document 001) Casbeer, D W, Li, S M, Beardd, R W, McLain, T W and Mehra, R K, 2008, “Fire Monitoring with Multiple Small UAVs” Proceedings of the American Control Conference, Portland, USA Colomina. (비특허문헌 002) Colomina, I, Blazquez, M, Molina, P, Pares, M E and Wis, M, 2008, “A New Paradigm for High-Resolution Low-Cost Photogrammetryand Remote Sensing”ISPRS XXI Congress Beijing, China, Jul 3-11, 2008 pp1201-1206.(Non-Patent Document 002) Colomina, I, Blazquez, M, Molina, P, Pares, ME and Wis, M, 2008, “A New Paradigm for High-Resolution Low-Cost Photogrammetry and Remote Sensing” ISPRS XXI Congress Beijing, China, Jul 3-11, 2008 pp 1201-1206. 대한민국등록특허공보 제10-1323971호(2013.10.24)Republic of Korea Patent Publication No. 10-1323971 (2013.10.24)

따라서, 본 발명은 상기 종래의 문제점을 해소하기 위한 것으로,Therefore, the present invention is to solve the above conventional problems,

본 발명의 제1 목적은 초경량 무인항공기(Unmanned Aerial Vehicle)를 활용하여 저고도 항공사진측량을 실시한 후, 지상용 3D라이다스캐너 혹은 모바일 맵핑장치를 통해 취득된 3D 정보를 이용하여 정사영상 지도를 제작하고자 한다.The first object of the present invention is to produce an orthoimage map using 3D information acquired through a ground 3D lidar scanner or a mobile mapping device after performing a low altitude aerial survey using an ultralight unmanned aerial vehicle. I would like to.

본 발명의 제2 목적은 상기 취득된 3D정보를 이용하여 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정밀도를 보정한 후, 영상처리프로그램을 이용하여 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보 혹은 MMS 정보에 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 대상지정사영상정보DB에 저장시켜 관리하는데 있다.The second object of the present invention is to obtain GPS precision by obtaining the result values of performing N GCP (Ground Control Point) VRS (Virtual Reference Station) surveys on the target location using the acquired 3D information. After correction, orthogonal image and DSM (Digital Surface Model) improve the accuracy of 3D point cloud by matching GPS capture information with each camera capture image information and lidar scanning information or MMS information using image processing program. Digital surface model) to generate and store in the target image data DB.

본 발명의 제3 목적은 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하여 사용자단말기를 통해 특정 대상지에 대한 3D 정보를 화면에 출력시키고자 하는데 있다.According to a third object of the present invention, when requesting 3D information on a specific target from a user terminal, the orthoimage and the DSM, which are 3D information about the corresponding target, are extracted from the target designated image information DB and transmitted to the user terminal to identify the target image. This is to output 3D information about the destination on the screen.

본 발명이 과제를 해결하기 위하여, 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템은,In order to solve the problem of the present invention, a system for providing a virtual reality space map based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention,

무인항공기(200)로부터 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와, 지상용 3D라이다스캐너(300)로부터 스캐닝 된 대상지에 대한 라이다 스캐닝 정보를 취득하며, 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하고, 지상측량기(500)로부터 획득한 결과값을 이용하여 무인항공기(200)와 지상용 3D라이다스캐너(300)로부터 획득한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보의 GPS 정확도를 항샹시키기 위한 GPS 보정정보를 생성한 후, 영상처리프로그램을 이용하여 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보에 생성된 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 저장시키며, 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 3D포인트클라우드기반가상현실공간맵서버(100)와;Acquire camera capture image information about the target image photographed from the unmanned aerial vehicle 200 and lidar scanning information about the target region scanned from the ground 3D lidar scanner 300, and N for the target region from the ground survey instrument 500. GCP (Ground Control Point, ground reference point) to obtain the results of the VRS (Virtual Reference Station, VRS) survey, using the results obtained from the ground survey instrument 500 for the unmanned aerial vehicle 200 and the ground After generating the camera capture image information obtained from the 3D rider scanner 300 and the GPS correction information for enhancing the GPS accuracy of the lidar scanning information, the image processing program is used to generate the camera captured image information and the lidar scanning information. Generate and store orthoimages and digital surface models (DSMs) that improve the accuracy of the 3D point cloud by matching generated GPS correction information. 3D point cloud-based virtual reality space map server for extracting orthoimages and DSMs, which are 3D information about the corresponding destination, from the designated destination image information DB and transmitting them to the user terminal when requesting 3D information about a specific destination from the user terminal. 100;

3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 비행계획정보에 따라 비행하면서 대상지를 촬영하고, 촬영된 대상지에 대한 카메라 캡쳐이미지 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 무인항공기(200)와;3D point cloud-based virtual reality space map server 100 is taken according to the flight plan information provided by the flight plan, and the camera capture image information on the photographed destination to the 3D point cloud-based virtual reality space map server 100 Providing an unmanned aerial vehicle 200;

3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 동작신호에 따라 대상지를 스캐닝하고, 스캐닝된 대상지에 대한 라이다 스캐닝 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상용 3D라이다스캐너(300)와;The ground scanning the target area according to the operation signal provided by the 3D point cloud-based virtual reality space map server 100, and provides a lidar scanning information on the scanned target site to the 3D point cloud-based virtual reality space map server 100 A 3D rider scanner 300;

대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상측량기(500)와;The ground value provided by the 3D point cloud-based virtual reality space map server 100 by generating a result of performing a VRS (Virtual Reference Station (VRS)) survey on N ground control points (GCPs) of the target site. An instrument 500;

특정 대상지에 대한 3D 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 요청하며, 특정 대상지에 대한 3D 정보인 정사영상과 DSM을 획득하여 3D맵핑엔진부를 통해 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 사용자단말기(1000)를 포함하여 구성되는 것을 특징으로 한다.Requests 3D information about a specific target to the 3D point cloud-based virtual reality space map server 100, obtains orthoimages and DSMs, which are 3D information about the specific target, and displays 3D information of the specific target mapped through the 3D mapping engine. Characterized in that it comprises a user terminal 1000 for output to the screen.

한편, 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법은,Meanwhile, a method of providing a virtual reality space map based on the construction of an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a 3D lidar scanner for ground,

3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기에 의해 촬영된 대상지에 대한 카메라 캡쳐이미지 정보를 취득하며, 지상용 3D라이다스캐너에 의해 스캐닝된 대상지에 대한 라이다 스캐닝 정보 혹은 모바일 맵핑장치에 의해 처리된 대상지에 대한 MMS 정보를 취득하기 위한 3D정보취득단계(S100);3D Point Cloud-based Virtual Reality Spatial Map Server 100 acquires camera capture image information about the target image captured by the unmanned aerial vehicle, and the lidar scanning information or the mobile mapping of the target region scanned by the ground 3D lidar scanner. 3D information acquisition step (S100) for acquiring MMS information about the target location processed by the apparatus;

3D포인트클라우드기반가상현실공간맵서버(100)가 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정밀도를 보정하기 위한 GPS정밀도수행단계(S200);3D point cloud-based virtual reality space map server 100 obtains the result of performing N GCP (Ground Control Point) VRS (Virtual Reference Station) surveys on the destination to correct GPS accuracy GPS precision performing step (S200) for;

3D포인트클라우드기반가상현실공간맵서버(100)가 영상처리프로그램을 이용하여 상기 3D정보취득단계에서 취득된 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보 혹은 MMS 정보에 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하기 위한 3D포인트클라우드정사영상생성단계(S300);The 3D point cloud-based virtual reality space map server 100 matches each of the camera capture image information acquired in the 3D information acquisition step with GPS correction information with lidar scanning information or MMS information using an image processing program. 3D point cloud orthodontic image generation step (S300) for generating an orthoimage and a digital surface model (DSM) for improving the accuracy of the 3D point cloud;

3D포인트클라우드기반가상현실공간맵서버(100)가 상기 3D 포인트클라우드로 생성된 정사영상과 DSM을 대상지정사영상정보DB에 저장시키기 위한 대상지정사영상정보DB구축단계(S400);A 3D point cloud-based virtual reality space map server 100 configured to store an orthoimage and a DSM generated by the 3D point cloud in a target designated image information DB (S400);

3D포인트클라우드기반가상현실공간맵서버(100)가 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 대상지3D정보제공단계(S500);를 포함한다.When the 3D point cloud-based virtual reality space map server 100 requests 3D information on a specific target from a user terminal, the 3D point cloud extracts orthoimages and DSMs, which are 3D information about the target, from a target designated image information DB, and sends them to the user terminal. 3D information providing step (S500) for.

본 발명인 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법에 의하면, According to the present inventors using an unmanned aerial vehicle and a 3D lidar scanner for orthoimage 3D point cloud DB construction based virtual reality space map providing system and method,

초경량 무인항공기(Unmanned Aerial Vehicle)를 활용하여 저고도 항공사진측량을 실시한 후, 지상용 3D라이다스캐너 혹은 모바일 맵핑장치를 통해 취득된 3D 정보를 이용하여 정사영상 지도를 제작하여 기존의 여러 명이 반복적으로 측량하는 열악한 환경의 비능률적인 현황측량 실무 작업에 적용시켜, 측량인력 및 작업시간을 효율적으로 대체 및 절약하고, 새로운 측량 솔루션을 제공하는 효과를 발휘한다.After conducting low altitude aerial survey using an ultra light unmanned aerial vehicle, an ortho-image map using 3D information acquired through a 3D ground scanner or a mobile mapping device is used. It can be applied to inefficient surveying work in the harsh environment of surveying, effectively replacing and saving survey manpower and working hours, and providing new surveying solution.

즉, 취득된 3D정보를 이용하여 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정밀도를 보정한 후, 영상처리프로그램을 이용하여 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보 혹은 MMS 정보에 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 대상지정사영상정보DB에 저장시켜 관리함으로써, 2D 영상 정보뿐만 아니라, 3D 영상 정보를 동시에 제공하게 되어 특정 대상지에 대한 정보를 입체적으로 확인할 수 있는 효과를 발휘한다.In other words, by using the acquired 3D information, after obtaining N GCP (Ground Control Point) VRS (Virtual Reference Station) VRS (Virtual Reference Point) survey results of the destination, the GPS precision is corrected, and image processing is performed. By using the program, each camera captured image information and lidar scanning information or MMS information are matched with GPS correction information to generate orthoimages and digital surface models (DSM) that improve the accuracy of the 3D point cloud. By storing and managing in the designated target image information DB, not only the 2D image information but also the 3D image information is provided at the same time.

또한, 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하여 사용자단말기를 통해 특정 대상지에 대한 3D 정보를 화면에 출력시킴으로써, 가상현실(VR)을 통해 현장에 가지 않고도 원격지에서 실무자들이 입체적으로 개발 현장의 지형 상태 및 구조물 상태를 확인할 수 있는 효과를 발휘하게 된다.In addition, when requesting 3D information on a specific destination from the user terminal, 3D information about the specific destination through the user terminal by extracting the orthoimage and the DSM 3D information on the destination from the target designated image information DB to the user terminal By outputting to the screen, the virtual reality (VR) without having to go to the site, the remote workers will be able to check the topographical and structural conditions of the development site in three dimensions.

도 1은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템의 전체 구성도.
도 2는 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템의 3D포인트클라우드기반가상현실공간맵서버(100) 및 사용자단말기(1000)의 블록도.
도 3은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템에서 무인항공기의 비행계획프로그램을 이용하여 비행 계획수립을 실시한 예시도.
도 4는 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템에서 각각의 지상기준점(GCP)에 대한 VRS 측량 화면 예시도.
도 5는 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템에서 영상처리프로그램을 통해 생성된 3차원 정사영상(Orthomosaic) 자료와 수치표면모델 자료를 나타낸 화면 예시도.
도 6은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템에서 3D 포인트클라우드를 활용할 수 있는 가상현실(VR) 프로그램을 통해 공간 맵 액세스 3D 인식을 수행하는 화면 예시도.
도 7은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법을 나타낸 흐름도.
도 8은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법의 3D정보취득단계(S100)를 구체적으로 나타낸 흐름도.
1 is an overall configuration diagram of a system for providing a virtual reality space map based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention.
2 is a 3D point cloud-based virtual reality space map server 100 of a virtual reality space map providing system based on an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention. And a block diagram of the user terminal 1000.
FIG. 3 is a plan of flight planning using a flight planning program of an unmanned aerial vehicle in a virtual reality space map providing system based on an unmanned aerial vehicle and a ground 3D lidar scanner for orthoimage 3D point cloud DB according to an embodiment of the present invention. Example of the implementation.
4 is a VRS survey screen for each ground control point (GCP) in a virtual reality space map providing system based on an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention. Illustrated diagram.
FIG. 5 is a 3D orthogonal image generated by an image processing program in a virtual reality space map providing system based on an unmanned aerial vehicle and a 3D lidar scanner for land use according to an embodiment of the present invention. Orthomosaic) A screen example showing data and numerical surface model data.
6 is a virtual reality (VR) that can utilize the 3D point cloud in the virtual reality space map providing system based on the orthodontic three-dimensional point cloud DB using the unmanned aerial vehicle and the ground 3D lidar scanner according to an embodiment of the present invention An example of a screen for performing spatial map access 3D recognition through a program.
7 is a flowchart illustrating a method for providing a virtual reality space map based on an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention.
8 is a flowchart illustrating in detail the 3D information acquisition step (S100) of the method for providing a virtual reality space map based on the 3D point cloud DB construction based on the unmanned aerial vehicle and the ground 3D lidar scanner according to an embodiment of the present invention. .

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. The following merely illustrates the principles of the invention. Therefore, those skilled in the art, although not explicitly described or illustrated herein, can embody the principles of the present invention and invent various devices that fall within the spirit and scope of the present invention.

또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.In addition, all conditional terms and embodiments listed herein are in principle clearly intended to be understood only for the purpose of understanding the concept of the invention and are not to be limited to the specifically listed embodiments and states. do.

본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않을 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be understood that the component may be directly connected to or connected to the other component, but there may be other components in between. .

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention, and singular forms may include plural forms unless the context clearly indicates otherwise.

본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this specification, the terms including or including are intended to designate that there exists a feature, a number, a step, an operation, a component, a part, or a combination thereof described in the specification, and one or more other features or numbers, It can be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.

본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템은,According to an embodiment of the present invention, a system for providing a virtual reality space map based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner is provided.

무인항공기(200)로부터 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와, 지상용 3D라이다스캐너(300)로부터 스캐닝 된 대상지에 대한 라이다 스캐닝 정보를 취득하며, 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하고, 지상측량기(500)로부터 획득한 결과값을 이용하여 무인항공기(200)와 지상용 3D라이다스캐너(300)로부터 획득한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보의 GPS 정확도를 항샹시키기 위한 GPS 보정정보를 생성한 후, 영상처리프로그램을 이용하여 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보에 생성된 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 저장시키며, 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 3D포인트클라우드기반가상현실공간맵서버(100)와;Acquire camera capture image information about the target image photographed from the unmanned aerial vehicle 200 and lidar scanning information about the target region scanned from the ground 3D lidar scanner 300, and N for the target region from the ground survey instrument 500. GCP (Ground Control Point, ground reference point) to obtain the results of the VRS (Virtual Reference Station, VRS) survey, using the results obtained from the ground survey instrument 500 for the unmanned aerial vehicle 200 and the ground After generating the camera capture image information obtained from the 3D rider scanner 300 and the GPS correction information for enhancing the GPS accuracy of the lidar scanning information, the image processing program is used to generate the camera captured image information and the lidar scanning information. Generate and store orthoimages and digital surface models (DSMs) that improve the accuracy of the 3D point cloud by matching generated GPS correction information. 3D point cloud-based virtual reality space map server for extracting orthoimages and DSMs, which are 3D information about the corresponding destination, from the designated destination image information DB and transmitting them to the user terminal when requesting 3D information about a specific destination from the user terminal. 100;

3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 비행계획정보에 따라 비행하면서 대상지를 촬영하고, 촬영된 대상지에 대한 카메라 캡쳐이미지 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 무인항공기(200)와;3D point cloud-based virtual reality space map server 100 is taken according to the flight plan information provided by the flight plan, and the camera capture image information on the photographed destination to the 3D point cloud-based virtual reality space map server 100 Providing an unmanned aerial vehicle 200;

3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 동작신호에 따라 대상지를 스캐닝하고, 스캐닝된 대상지에 대한 라이다 스캐닝 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상용 3D라이다스캐너(300)와;The ground scanning the target area according to the operation signal provided by the 3D point cloud-based virtual reality space map server 100, and provides a lidar scanning information on the scanned target site to the 3D point cloud-based virtual reality space map server 100 A 3D rider scanner 300;

대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상측량기(500)와;The ground value provided by the 3D point cloud-based virtual reality space map server 100 by generating a result of performing a VRS (Virtual Reference Station (VRS)) survey on N ground control points (GCPs) of the target site. An instrument 500;

특정 대상지에 대한 3D 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 요청하며, 특정 대상지에 대한 3D 정보인 정사영상과 DSM을 획득하여 3D맵핑엔진부를 통해 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 사용자단말기(1000)를 포함하여 구성되는 것을 특징으로 한다.Requests 3D information about a specific target to the 3D point cloud-based virtual reality space map server 100, obtains orthoimages and DSMs, which are 3D information about the specific target, and displays 3D information of the specific target mapped through the 3D mapping engine. Characterized in that it comprises a user terminal 1000 for output to the screen.

또한, 상기 3D포인트클라우드기반가상현실공간맵서버(100)는,In addition, the 3D point cloud-based virtual reality space map server 100,

비행계획프로그램을 이용하여 무인항공기의 비행계획을 수립하며, 수립된 비행계획정보를 무인항공기로 제공하기 위한 비행계획수립부(110);A flight plan establishment unit 110 for establishing a flight plan of the unmanned aerial vehicle using a flight plan program and providing the established flight plan information to the unmanned aerial vehicle;

무인항공기(200)로부터 대상지에 대한 카메라 캡쳐이미지 정보를 취득하기 위한 카메라캡쳐이미지정보취득부(120);A camera capture image information acquisition unit 120 for acquiring camera capture image information on a target location from the unmanned aerial vehicle 200;

지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 지상용 3D라이다스캐너(300)로부터 대상지에 대한 라이다 스캐닝 정보를 취득하기 위한 라이다스캐닝정보취득부(130);A lidar scanning information acquisition unit 130 for providing an operation signal to the ground 3D rider scanner 300 and acquiring lidar scanning information about a target from the ground 3D rider scanner 300;

지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 향상시키기 위한 GPS 보정정보를 생성하는 GPS정밀도수행부(150);GPS correction information for improving GPS accuracy is obtained by obtaining a value obtained by performing a VRS (Virtual Reference Station (VRS)) survey on N ground control points (GCPs) of the target site from the ground surveyor 500. GPS precision performing unit 150 for generating;

영상처리프로그램에 의해 상기 카메라캡쳐이미지정보취득부와 라이다스캐닝정보취득부에서 취득된 대상지에 대한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보에 GPS정밀도수행부(150)가 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 3차원 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하기 위한 3D포인트클라우드정사영상생성부(160);GPS correction information generated by the GPS precision performing unit 150 is included in the camera capture image information and the lidar scanning information about the target area acquired by the camera capture image information acquisition unit and the rider scanning information acquisition unit by an image processing program, respectively. A 3D point cloud orthodontic image generation unit 160 for generating a 3D orthogonal image and a DSM (Digital Surface Model) to improve the accuracy of the 3D point cloud by matching;

상기 3D포인트클라우드정사영상생성부에 의해 생성된 3D 포인트클라우드의 3차원 정사영상과 DSM을 대상지정사영상정보DB에 저장시키기 위한 대상지정사영상정보DB구축부(170);A target designated image information DB building unit 170 for storing the 3D orthogonal image and the DSM of the 3D point cloud generated by the 3D point cloud orthoimage generating unit in the target designated image information DB;

상기 대상지정사영상정보DB구축부에 의해 제공된 3D 포인트클라우드의 정사영상과 DSM을 대상지별로 저장하고 있는 대상지정사영상정보DB(180);A target designated image information DB (180) which stores the orthoimages of the 3D point cloud and the DSM provided by the target sites by the target designated image information DB construction unit;

사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 3차원 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 대상지3D정보제공부(190);를 포함하여 구성되는 것을 특징으로 한다.A destination 3D information providing unit 190 for extracting 3D orthogonal images and DSMs, which are 3D information on the destination from the destination designated image information DB, and transmitting the 3D information to the user terminal when requesting 3D information about a specific destination from the user terminal; Characterized in that comprises a.

또한, 상기 사용자단말기(1000)는,In addition, the user terminal 1000,

특정 대상지에 대한 3D 정보를 요청하기 위한 3D정보요청부(1100);A 3D information request unit 1100 for requesting 3D information about a specific target location;

상기 특정 대상지에 대한 3D 정보인 3차원 정사영상과 DSM을 획득할 경우, 이를 맵핑시키기 위한 3D맵핑엔진부(1200);A 3D mapping engine unit 1200 for mapping the 3D orthogonal image and the DSM which are 3D information on the specific target location;

상기 3D맵핑엔진부로부터 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 3D정보출력부(1300);를 포함하여 구성되는 것을 특징으로 한다.And a 3D information output unit 1300 for outputting 3D information of a specific target location mapped from the 3D mapping engine unit to a screen.

이때, 상기 무인항공기의 비행계획 수립은 비행계획프로그램을 활용하여 수립하며, 수립된 비행 계획대로 이동하면서 무인항공기에 탑재된 카메라를 사용하여 일정 높이에서 항공 촬영을 수행하는 것을 특징으로 한다.At this time, the flight planning of the unmanned aerial vehicle is established by using a flight planning program, and moves according to the established flight plan, characterized in that to perform aerial photography at a predetermined height using a camera mounted on the unmanned aerial vehicle.

한편, 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법은,Meanwhile, a method of providing a virtual reality space map based on the construction of an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a 3D lidar scanner for ground,

3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)에 의해 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와 지상용 3D라이다스캐너(300)에 의해 스캐닝된 대상지에 대한 라이다 스캐닝 정보를 취득하는 3D정보취득단계(S100);3D point cloud-based virtual reality space map server 100 is the camera capture image information about the target image taken by the unmanned aerial vehicle 200 and the lidar scanning information about the target object scanned by the ground 3D lidar scanner 300 3D information acquisition step of obtaining the (S100);

3D포인트클라우드기반가상현실공간맵서버(100)가 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 보정하기 위한 GPS 보정정보를 생성하는 GPS정밀도수행단계(S200);The 3D point cloud-based virtual reality space map server 100 obtains the result of performing N GCP (Ground Control Point) virtual reference station (VRS) surveys on the target site from the ground surveyor 500. GPS precision performing step of generating GPS correction information for correcting the GPS accuracy (S200);

3D포인트클라우드기반가상현실공간맵서버(100)가영상처리프로그램을 이용하여 상기 3D정보취득단계(S100)에서 취득된 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보에 GPS정밀도수행단계(S200)에서 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하는 3D포인트클라우드정사영상생성단계(S300);3D point cloud-based virtual reality space map server 100 using the image processing program, each of the camera capture image information acquired in the 3D information acquisition step (S100) and the lidar scanning information GPS precision performing step (S200) 3D point cloud orthodontic image generation step (S300) of generating an orthoimage and a digital surface model (DSM) that match the GPS correction information generated by each to improve the accuracy of the 3D point cloud;

3D포인트클라우드기반가상현실공간맵서버(100)가 3D포인트클라우드기반가상현실공간맵서버(100)가 3D 포인트클라우드로 생성된 3차원 정사영상과 DSM을 저장하는 대상지정사영상정보DB구축단계(S400);3D point cloud-based virtual reality space map server 100 is a 3D point cloud-based virtual reality space map server 100 is a target designation image information DB for storing the 3D orthogonal image and DSM generated by the 3D point cloud (S400) );

사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 3D포인트클라우드기반가상현실공간맵서버(100)가 저장된 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하는 대상지3D정보제공단계(S500);를 포함하는 것을 특징으로 한다.When requesting 3D information on a specific destination from the user terminal, the 3D point cloud-based virtual reality space map server 100 extracts orthogonal images and DSMs, which are stored 3D information on the corresponding destination, and transmits them to the user terminal. (S500); characterized in that it comprises a.

또한, 상기 3D정보취득단계(S100)는,In addition, the 3D information acquisition step (S100),

3D포인트클라우드기반가상현실공간맵서버(100)가 eMotion SW를 활용하여 무인항공기의 비행계획을 수립하며, 수립된 비행계획 정보를 무인항공기로 제공하기 위한 비행계획수립단계(S110);A 3D point cloud-based virtual reality space map server 100 establishes a flight plan of the unmanned aerial vehicle using eMotion SW, and establishes a flight plan for providing the established flight plan information to the unmanned aerial vehicle (S110);

3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)로부터 해당 대상지에 대한 카메라 캡쳐이미지 정보를 취득하기 위한 카메라캡쳐이미지정보취득단계(S120);Camera capture image information acquisition step (S120) for the 3D point cloud-based virtual reality space map server 100 to acquire camera capture image information of the target location from the unmanned aerial vehicle 200;

3D포인트클라우드기반가상현실공간맵서버(100)가 지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 동작 신호에 따라 스캐닝한 해당 대상지에 대한 라이다 스캐닝 정보를 취득하기 위한 라이다스캐닝정보취득단계(S130);를 포함하고,The 3D point cloud-based virtual reality space map server 100 provides an operation signal to the ground 3D lidar scanner 300, and performs lidar scanning for acquiring lidar scanning information about a target object scanned according to the operation signal. Including information acquisition step (S130);

추가적으로, 3D포인트클라우드기반가상현실공간맵서버(100)가 모바일 맵핑장치(400)에 동작 신호를 제공하며, 모바일 맵핑장치(400)로부터 해당 대상지에 대한 MMS 정보를 취득하기 위한 MMS정보취득단계(S140)를 더 포함하는 것을 특징으로 한다.In addition, the 3D point cloud-based virtual reality space map server 100 provides an operation signal to the mobile mapping device 400, MMS information acquisition step for acquiring MMS information for the corresponding destination from the mobile mapping device 400 ( S140) is characterized in that it further comprises.

이하, 첨부된 도면을 참조하여 본 발명인 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of a system and method for providing a 3D point cloud DB based virtual reality space map based on the unmanned aerial vehicle and the ground 3D lidar scanner of the present invention.

본 발명에서 설명하고 있는 시스템은 어떤 문제를 해결하는데 사용되는 소프트웨어 혹은 하드웨어를 의미한다.The system described in the present invention refers to software or hardware used to solve a problem.

도 1은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템의 전체 구성도이다.FIG. 1 is an overall configuration diagram of a system for providing a virtual reality space map based on an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner according to an exemplary embodiment of the present invention.

도 1과 같이, 본 발명인 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템은, 3D포인트클라우드기반가상현실공간맵서버(100), 무인항공기(200), 지상용 3D라이다스캐너(300), 지상측량기(500)를 포함하여 구성되게 된다.As shown in FIG. 1, the present inventors use a 3D point cloud DB construction-based virtual reality space map providing system using an unmanned aerial vehicle and a 3D lidar scanner for a ground plane, a 3D point cloud-based virtual reality space map server 100, and an unmanned aerial vehicle. The aircraft 200, the ground 3D rider scanner 300, and the ground surveyor 500 will be configured.

구체적으로 설명하면, 상기 무인항공기(200)는 촬영을 원하는 대상지의 상공에서 비행하며, 무인항공기에는 디지털 카메라가 장착되며, 바람직하게는 고정익 혹은 회전익의 드론을 활용하게 된다.Specifically, the unmanned aerial vehicle 200 is flying over a target site to be photographed, the unmanned aerial vehicle is equipped with a digital camera, preferably utilizing a drone of a fixed wing or a rotorcraft.

이때, 무인항공기는 비행하면서 촬영한 대상지에 대한 카메라 캡쳐이미지 정보를 3D포인트클라우드기반가상현실공간맵서버(100)에 전송하게 된다.At this time, the unmanned aerial vehicle transmits camera capture image information of the target location photographed while flying to the 3D point cloud-based virtual reality space map server 100.

상기 지상용 3D라이다스캐너(300)는 움직이는 차량에 탑재되어 대상지를 스캐닝하게 되며, 스캐닝된 라이다 스캐닝 정보를 3D포인트클라우드기반가상현실공간맵서버(100)에 전송하게 된다.The ground 3D lidar scanner 300 is mounted on a moving vehicle to scan a target location, and transmits the scanned lidar scanning information to the 3D point cloud-based virtual reality space map server 100.

한편, 부가적인 양태에 따라, 대상지에 대한 MMS 정보를 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)에 전송는 모바일 맵핑장치(400)를 더 포함하여 구성할 수도 있다.On the other hand, according to an additional aspect, generating the MMS information for the destination to be transmitted to the 3D point cloud-based virtual reality space map server 100 may further comprise a mobile mapping device 400.

즉, 상기 지상용 3D라이다스캐너(300) 뿐만아니라, 모바일 맵핑장치(400)를 추가적으로 구성할 경우에 좀 더 정밀한 3D 정보를 획득할 수 있게 된다.That is, when configuring not only the ground 3D rider scanner 300 but also the mobile mapping device 400, more accurate 3D information can be obtained.

또한, 상기 지상측량기(500)를 통해, 정밀한 데이터를 획득할 수 있게 되는데, 정밀한 데이터 취득을 하기 위한 방법으로서, 현장 지상측량기를 통해 정밀측량용 GPS를 사용하여 주요지점에 대한 측점을 측량 방식에 맞게 표식하여 관측을 완료하게 되는 것이다.In addition, through the ground surveyor 500, it is possible to obtain accurate data, as a method for obtaining accurate data, by using a GPS for the precision survey through the on-site ground surveyor surveying the points to the main point in the survey method Mark it properly and complete the observation.

즉, 상기 지상측량기(500)는 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)로 제공한다.That is, the ground surveyor 500 generates a 3D point cloud-based virtual reality space by generating a result of performing a VRS (Virtual Reference Station) survey on N ground control points (GCPs) of a target site. Provided to the map server 100.

따라서, 상기 3D포인트클라우드기반가상현실공간맵서버(100)는 비행계획에 따라 비행하는 무인항공기에 의해 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와, 지상용 3D라이다스캐너에 의해 스캐닝된 대상지에 대한 라이다 스캐닝 정보 혹은 모바일 맵핑장치에 의해 처리된 대상지에 대한 MMS 정보를 추가적으로 취득하게 된다. 즉, 3차원 정보인 VR 정보를 제공하기 위하여 기본적인 대상지에 대한 로우 데이터를 획득하게 되는 것이다.Therefore, the 3D point cloud-based virtual reality space map server 100 is the camera capture image information about the target image taken by the unmanned aerial vehicle flying in accordance with the flight plan, and the target region scanned by the ground 3D lidar scanner Additional MMS information about the destination processed by the lidar scanning information or the mobile mapping device is acquired. That is, in order to provide VR information, which is three-dimensional information, raw data about a basic target location is acquired.

이후, 3D포인트클라우드기반가상현실공간맵서버(100)는 상기 취득된 정보를 이용하여 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정밀도를 보정하게 된다. 즉, GPS 오차를 상기와 같은 측량 방식을 통해 제거함으로써, GPS 정밀도 즉, 정확성을 향상시키게 되는 것이다.Subsequently, the 3D point cloud-based virtual reality space map server 100 performs N GCP (Ground Control Point) VRS (Virtual Reference Station) surveys on the destination using the acquired information. The GPS accuracy is obtained by obtaining the value. In other words, by removing the GPS error through the measurement method as described above, GPS accuracy, that is, accuracy is improved.

이후, 영상처리프로그램을 이용하여 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보 혹은 MMS 정보에 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 대상지정사영상정보DB에 저장시키게 된다. 즉, 특정 대상지에 대한 3D 정보를 저장하여 실시간으로 관리하기 위하여 데이터베이스를 구축하게 되는 것이다.Afterwards, ortho-images and digital surface models (DSMs) that improve the accuracy of the 3D point cloud by matching GPS capture information with each camera capture image information and lidar scanning information or MMS information using an image processing program, respectively. Model) and store it in the designated target image information DB. That is, a database is constructed to store and manage 3D information on a specific target in real time.

이후, 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하게 되는 것이다.Then, when the 3D information request for a specific destination from the user terminal, the orthoimage and the DSM 3D information on the destination from the target designated image information DB is extracted and transmitted to the user terminal.

이때, 상기 사용자단말기(1000)는 자신이 현장을 VR로 확인하기 위하여 특정 현장 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하게 되면, 3D포인트클라우드기반가상현실공간맵서버(100)에서 해당 사용자단말기로 특정 대상지에 대한 3D 정보인 정사영상과 DSM을 전송하고 이를 사용자단말기에서 획득하여 3D맵핑엔진부를 통해 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키게 되는 것이다.In this case, when the user terminal 1000 provides specific site information to the 3D point cloud-based virtual reality space map server 100 in order to check the site in VR, the 3D point cloud-based virtual reality space map server 100 is provided. ) Transmits the 3D information about the specific destination and the orthogonal image and DSM to the corresponding user terminal and obtains it from the user terminal and outputs the 3D information of the specific destination mapped through the 3D mapping engine.

도 2는 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템 및 제공방법의 3D포인트클라우드기반가상현실공간맵서버(100) 및 사용자단말기(1000)의 블록도이다.2 is a 3D point cloud-based virtual reality space map server of a system and method for providing an orthodontic three-dimensional point cloud DB construction-based virtual reality space map using an unmanned aerial vehicle and a ground 3D lidar scanner according to an embodiment of the present invention. 100 is a block diagram of the user terminal 1000.

도 2에 도시한 바와 같이, 상기 3D포인트클라우드기반가상현실공간맵서버(100)는 비행계획수립부(110), 카메라캡쳐이미지정보취득부(120), 라이다스캐닝정보취득부(130), GPS정밀도수행부(150), 3D포인트클라우드정사영상생성부(160), 대상지정사영상정보DB구축부(170), 대상지정사영상정보DB(180), 대상지3D정보제공부(190)를 포함하여 구성되고, 추가적으로 MMS정보취득부(140)를 더 포함하여 구성할 수 있다.As shown in FIG. 2, the 3D point cloud-based virtual reality space map server 100 includes a flight planner 110, a camera capture image information acquirer 120, a rider scanning information acquirer 130, Including GPS precision performing unit 150, 3D point cloud orthodontic image generating unit 160, target designated image information DB construction unit 170, target designated image information DB 180, destination 3D information providing unit 190 It is configured, and may further comprise a MMS information acquisition unit 140.

구체적으로 설명하면, 상기 비행계획수립부(110)는 비행계획프로그램을 활용하여 무인항공기의 비행계획 수립하며, 수립된 비행계획 정보를 무인항공기로 제공하게 된다.In detail, the flight planning unit 110 establishes a flight plan of the unmanned aerial vehicle using a flight planning program, and provides the established flight plan information to the unmanned aerial vehicle.

도 3에 도시한 바와 같이, 비행계획수립부(110)에 의한 무인항공기의 비행 계획수립은 바람직하게는 eMotion SW라는 비행계획프로그램을 활용하게 되며, 대상 지역에 평활한 대지 뿐만 아니라, 높은 산지를 포함하고 있어 무인항공기의 카메라 촬영시 충돌의 위험을 고려하여 비행고도 100m ~ 200m에서 고해상도급으로 촬영하게 된다. 이때, eMotion SW의 Flight Data Manager 기능을 이용하여 카메라 캡쳐 이미지에 GPS와 INS(자동 항법) 정보를 연결할 수 있다.As shown in FIG. 3, the flight planning of the unmanned aerial vehicle by the flight planning unit 110 preferably utilizes a flight planning program called eMotion SW. In addition, in consideration of the risk of collision when shooting a drone camera, the flight altitude is shooting at high resolution from 100m to 200m. At this time, GPS and INS (automatic navigation) information can be connected to the camera captured image using the Flight Data Manager function of eMotion SW.

예를 들어, 상기 무인항공기의 비행계획 수립은 eMotion SW를 활용하여 촬영 해상도 4㎝, 비행고도 141m, 종·횡중복도를 90%와 80%로 설정하고, eMotion SW를 구동하면 무인항공기에 탑재된 GPS 수신기에 의해 프로그램에 자동으로 GPS 위치가 표시되며, 사용자는 촬영하고자 하는 사진의 해상도를 비롯하여 비행고도, 종중복도 및 횡중복도를 지정하며, GPS 수신기를 구비하는 무인항공기에 탑재된 카메라로 촬영하고자 하는 대상지역을 박스 또는 임의 도형형태로 지정하고, 비행계획이 결정되면, 업로딩 버튼을 클릭하여 비행계획을 무인항공기에 전송하게 되며, 무인항공기는 eMotion SW로부터 수신된 비행계획(해상도, 고도, 비행경로, 종중복도, 횡중복도 등)을 수신받아 해당 비행계획대로 이동하면서 카메라를 통해 일정 높이에서 항공 촬영을 수행하는 것이다.For example, the flight planning of the unmanned aerial vehicle uses eMotion SW to set the shooting resolution 4cm, the flight altitude 141m, the vertical and horizontal overlapping to 90% and 80%, and when the eMotion SW is driven, it is mounted on the unmanned aerial vehicle. The GPS position is automatically displayed in the program by the GPS receiver, and the user can specify the resolution of the photograph to be taken, the flight altitude, the longitudinal altitude, and the transversal altitude, and the camera mounted on the unmanned aerial vehicle equipped with the GPS receiver. Designate the target area to be shot in the form of a box or arbitrary figure, and when the flight plan is determined, click the upload button to send the flight plan to the unmanned aerial vehicle, and the unmanned aerial vehicle receives the flight plan (resolution, altitude) received from the eMotion SW. , Flight paths, longitudinal double paths, transverse double paths, etc.) and perform aerial photography at a certain height through the camera while moving according to the corresponding flight plan.

그리고, 상기 카메라캡쳐이미지정보취득부(120)는 무인항공기(200)로부터 해당 대상지에 대한 카메라 캡쳐이미지 정보를 취득하게 된다. 즉, 비행계획에 따라 비행하는 무인항공기(200)가 촬영한 해당 대상지에 대한 카메라 캡쳐이미지 정보를 획득하고, 여기에 GPS와 INS(자동 항법) 정보를 매칭시키게 되며, 상기 매칭된 정보를 실시간으로 취득하게 되는 것이다.The camera capture image information acquisition unit 120 acquires camera capture image information of the corresponding destination from the unmanned aerial vehicle 200. That is, the camera capture image information about the target location photographed by the unmanned aerial vehicle 200 flying in accordance with the flight plan, and match the GPS and INS (automatic navigation) information, and the matched information in real time Will be acquired.

이를 위하여 상기 무인항공기(200)와 3D포인트클라우드기반가상현실공간맵서버(100) 간에 무선통신을 통해 서로 데이터를 주고 받게 되는 것이다.To this end, the unmanned aerial vehicle 200 and the 3D point cloud-based virtual reality space map server 100 exchange data with each other through wireless communication.

상기 라이다스캐닝정보취득부(130)는 지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 3D라이다스캐너(300)로부터 스캐닝한 대상지에 대한 라이다 스캐닝 정보를 취득하게 된다.The lidar scanning information acquisition unit 130 provides an operation signal to the ground 3D lidar scanner 300, and acquires lidar scanning information on the target location scanned from the 3D lidar scanner 300.

상기 취득된 라이다(LiDAR) 스캐닝 정보는 포인트 클라우드(point cloud)로 생성될 수 있으며, 이는 3차원 공간좌표를 가지는 포인트의 집합이다. 이러한 포인트 데이터는 명확한 형상정보를 제공하지 못하는 문제점이 발생할 수도 있다.The obtained LiDAR scanning information may be generated as a point cloud, which is a set of points having three-dimensional spatial coordinates. Such point data may cause a problem that does not provide clear shape information.

한편, 부가적인 양태에 따라, MMS정보취득부(140)를 구성하여 모바일 맵핑장치(400)로부터 대상지에 대한 MMS 정보를 취득하도록 할 수 있다.Meanwhile, according to an additional aspect, the MMS information acquisition unit 140 may be configured to acquire MMS information about the destination from the mobile mapping apparatus 400.

즉, 모바일 맵핑장치(400)를 통해 추가적으로 MMS 정보를 획득하여 이를 3D 포인트클라우드에 활용할 수도 있다.That is, the MMS information may be additionally acquired through the mobile mapping apparatus 400 and used for the 3D point cloud.

그러나, 본 발명에서는 지상용 3D라이다스캐너(300)만을 이용하거나 또는 모바일 맵핑장치(400)만을 이용하여 3차원 로우 데이터를 획득하도록 구성하거나, 필요에 따라 지상용 3D라이다스캐너(300)와 모바일 맵핑장치(400) 모두를 활용하여 3차원 로우 데이터를 획득할 수도 있을 것이다.However, in the present invention, it is configured to acquire three-dimensional raw data using only the ground 3D lidar scanner 300 or only the mobile mapping device 400, or if necessary, the ground 3D lidar scanner 300 and 3D raw data may be obtained using all of the mobile mapping devices 400.

상기 GPS정밀도수행부(150)는 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 보정하기 위한 GPS 보정정보를 생성하는 기능을 수행하게 된다.The GPS precision performing unit 150 obtains a GPS value obtained by performing a VRS (Virtual Reference Station) survey on N ground control points (GCPs) of the target site from the ground surveyor 500. The GPS correction information for correcting the accuracy is generated.

도 4에 도시한 바와 같이, 지상측량기(500)를 통해 대상지에 N개의 GCP(Ground Control Point, 지상기준점)를 구성하고, 각 GCP 점에 대하여 VRS(Virtual Reference Station, 가상기준점) 측량을 수행하게 된다. 이때, 측량 결과값을 획득하여 GPS 정확도를 보정하게 되는 것이다.As shown in FIG. 4, N ground control points (GCPs) are configured at the target site through the ground surveyor 500, and a VRS (Virtual Reference Station) survey is performed for each GCP point. do. At this time, the GPS accuracy is corrected by obtaining a survey result.

일반적으로 어느 특정 지점에 대하여 GPS를 측정하게 되면, 오차가 필연적으로 발생하게 되며, 이러한 오차를 보정하지 않으면 측정 오류가 발생할 수 밖에 없었다.In general, when GPS is measured at a specific point, an error inevitably occurs, and a measurement error may occur if the error is not corrected.

따라서, 상기와 같이, GCP에 대한 VRS 측량을 지상측량기를 통해 수행함으로써, GPS 값의 오차를 보정하여 GPS의 정밀도 즉, 정확성을 향상시키는 작업을 수행하게 되는 것이다.Therefore, as described above, by performing a VRS survey for the GCP through the ground survey, the operation of correcting the error of the GPS value to improve the accuracy, that is, the accuracy of the GPS.

일반적인 GPS 측량은 2개의 GPS 수신기를 이용하여 위치를 알고 있는 기준점에 기준국(Base) GPS 수신기를 설치하고, 위치 확인이 필요한 지점에 이동국(Rover) GPS 수신기를 설치하여 기준국의 오차를 이동국 수신기 모뎀에 송신하여 오차를 보정함으로써 정확한 위치를 확보하는 방식을 사용하였다. In general GPS surveying, two GPS receivers are used to install a base station (GPS) receiver at a known reference point, and a mobile station receiver is installed at a point where positioning is needed to correct the error of the reference station. By using the modem to correct the error, the correct position is used.

VRS 측량은 GPS 수신기 1대를 이용하여 정확도 높은 측량을 수행하기 위해 개발된 방법으로써, 전국적으로 설치된 GPS 상시관측소들로 이루어진 기준국망을 이용하여 오차를 모델링한 후, GPS 수신기가 위치한 지점의 오차를 수신받아 정확한 위치를 결정하는 방식이다.VRS survey is a method developed to perform accurate survey using a single GPS receiver. The VRS survey is used to model an error using a reference network consisting of GPS stations installed nationwide. It is a method of receiving and determining the exact position.

상기 3D포인트클라우드정사영상생성부(160)는 영상처리프로그램에 의해 상기 카메라캡쳐이미지정보취득부와 라이다스캐닝정보취득부에서 취득된 대상지에 대한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보에 GPS정밀도수행부(150)가 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 3차원 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하게 된다.The 3D point cloud orthodontic image generation unit 160 performs GPS precision on the camera capture image information and the lidar scanning information on the target location acquired by the camera capture image information acquisition unit and the rider scanning information acquisition unit by an image processing program. Each of the GPS correction information generated by the unit 150 is matched to generate a 3D orthogonal image and a digital surface model (DSM) that improve the accuracy of the 3D point cloud.

또한, 대상지에 대한 MMS 정보를 생성하 모바일 맵핑장치(400)를 추가적으로 구성되는 경우,모바일 맵핑장치(400)로부터 대상지에 대한 MMS 정보를 획득하는 MMS정보취득부(140)를 더 포함하도록 3D포인트클라우드기반가상현실공간맵서버(100)를 구성할 수 있고, 이 경우 상기 3D포인트클라우드정사영상생성부(160)는 영상처리프로그램에 의해 상기 카메라캡쳐이미지정보취득부와 라이다스캐닝정보취득부와 MMS정보취득부(140)에서 취득된 대상지에 대한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 MMS 정보에 GPS정밀도수행부(150)가 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 3차원 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하게 된다.In addition, when the mobile mapping device 400 is additionally configured to generate MMS information about the destination, 3D points to further include an MMS information acquisition unit 140 to obtain MMS information about the destination from the mobile mapping device 400. The cloud-based virtual reality space map server 100 can be configured, in which case the 3D point cloud orthodontic image generation unit 160 is the camera capture image information acquisition unit and the rider scanning information acquisition unit by an image processing program; Improve the accuracy of the 3D point cloud by matching the camera capture image information and the lidar scanning information and the MMS information acquired by the MMS information acquisition unit 140 with the GPS correction information generated by the GPS precision execution unit 150, respectively. The 3D orthoimage and the DSM (Digital Surface Model) are generated.

특징적인 것은 지상측량기(500)를 통해 정밀도가 향상된 GPS 보정정보를 카메라 캡쳐이미지 정보와 3D 정보인 라이다 스캐닝 정보 혹은 MMS 정보를 각각 매칭시킨 정확도가 향상된 정사영상과 DSM 정보를 제공하는 것이다.The characteristic is to provide the orthodontic image and the DSM information with improved accuracy by matching the GPS correction information with improved precision through the ground surveyor 500 with the camera capture image information and the 3D information LiDAR scanning information or MMS information, respectively.

즉, 본 발명의 목적인 VR 정보를 사용자단말기를 제공하기 위하여 필연적으로 정밀도가 향상된 로우 데이터가 필요하게 되며, 이를 위하여 상기와 같은 구성수단들을 구성하게 된 것이다.That is, in order to provide a user terminal for VR information, which is an object of the present invention, it is necessary to improve raw data with high precision. For this purpose, the above-described configuration means are constituted.

예를 들어, 상기 영상처리프로그램인 Pix4D SW를 통해 사진, 정밀 보정된 GPS, INS(Inertial Navigation System, 관성 항법 장치) 정보, DSM 정보로부터 3차원 포인트 클라우드 정확도를 향상시켜 궁극적으로 신뢰도 높은 정사영상과 DSM 자료를 생성하는 것이다.For example, the image processing program Pix4D SW improves the accuracy of the three-dimensional point cloud from photos, precisely calibrated GPS, INS (Inertial Navigation System) information, and DSM information, resulting in highly reliable orthoimages. To generate DSM data.

도 5는 영상처리프로그램인 Pix4D SW를 통해 생성된 3차원 정사영상(Orthomosaic) 자료를 나타낸 사진이며, 정사영상뿐만 아니라, 수치표면모델 정보도 동시에 출력할 수도 있음을 보여준다.FIG. 5 is a photograph showing three-dimensional orthomosaic data generated through an image processing program Pix4D SW, and shows that not only an ortho image but also numerical surface model information may be simultaneously output.

상기 대상지정사영상정보DB구축부(170)는 3D포인트클라우드정사영상생성부에 의해 생성된 3D 포인트클라우드의 3차원 정사영상과 DSM을 대상지정사영상정보DB에 저장시키게 된다.The target designated image information DB construction unit 170 stores the 3D orthogonal image and the DSM of the 3D point cloud generated by the 3D point cloud orthodontic image generator in the target designated image information DB.

즉, 무인항공기의 비행 계획에 따라 특정 대상지를 촬영하게 되면, 해당 특정 대상지에 대한 3D 포인트클라우드의 3차원 정사영상과 DSM을 고유아이디를 부여하여 저장시키게 되면, 어느 특정 사용자가 특정 대상지에 대한 VR 정보를 요청할 경우에 특정 대상지에 대한 고유아이디 정보를 참조하여 특정 대상지에 매칭된 3차원 정사영상과 DSM 정보를 제공할 수 있게 되는 것이다.In other words, when shooting a specific target according to the flight plan of the drone, if the 3D orthogonal image of the 3D point cloud and the DSM assigned to the unique ID stored for the specific target, which specific user VR for the specific target When the information is requested, the 3D orthogonal image and the DSM information matched to the specific target can be provided by referring to the unique ID information of the specific target.

따라서, 대상지정사영상정보DB(180)에는 대상지정사영상정보DB구축부에 의해 제공된 3D 포인트클라우드의 정사영상과 DSM을 대상지별로 저장하고 있게 되는 것이다.Therefore, the target designated image information DB 180 stores the orthoimages of the 3D point cloud and the DSM provided by the target designated image information DB construction unit for each destination.

이때, 고유아이디를 주요키로 하여 각각의 대상지에 매칭된 3차원 정사영상과 DSM 정보를 저장하게 되는 것이다.At this time, the 3D orthogonal image and DSM information matched to each destination are stored using the unique ID as a main key.

상기와 같이, VR 데이터베이스를 구축하여 이를 서버를 통해 관리하게 되면, 네트워크망을 통해 접속되는 사용자의 요청 정보를 분석하여 해당 요청 정보에 부합되는 특정 대상지의 VR 정보를 제공할 수가 있게 되는 것이다.As described above, when the VR database is built and managed through the server, it is possible to analyze the request information of the user connected through the network and provide VR information of a specific target area corresponding to the request information.

즉, 상기 대상지3D정보제공부(190)는 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하게 되는 것이다.That is, when the target 3D information providing unit 190 requests 3D information about a specific target from the user terminal, the target 3D information providing unit 190 extracts the orthoimage and the DSM, which are 3D information about the target from the target designated image information DB, and transmits the 3D information to the user terminal. Will be.

상기한 3D 포인트클라우드로 생성된 정사영상은 비정사적 기학을 갖고 있어 생기는 높이차나 기울어짐 등 지형으로 생긴 기하학적인 왜곡을 보정하여 지리 좌표계, 즉 정사 좌표계로 변환하는 것을 말하며, 무인항공 사진의 경우 정사사진이라고 불린다.The ortho-image generated by the 3D point cloud is a method of correcting geometric distortion caused by terrain such as height difference or tilt caused by non-orthogonal geometry and converting it to a geographic coordinate system, that is, ortho coordinate system. It is called a photograph.

이때, 상기 사용자단말기(1000)는,At this time, the user terminal 1000,

특정 대상지에 대한 3D 정보를 요청하기 위한 3D정보요청부(1100);A 3D information request unit 1100 for requesting 3D information about a specific target location;

상기 특정 대상지에 대한 3D 정보인 3차원 정사영상과 DSM을 획득할 경우, 이를 맵핑시키기 위한 3D맵핑엔진부(1200);A 3D mapping engine unit 1200 for mapping the 3D orthogonal image and the DSM which are 3D information on the specific target location;

상기 3D맵핑엔진부로부터 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 3D정보출력부(1300);를 포함하여 구성되는 것을 특징으로 한다.And a 3D information output unit 1300 for outputting 3D information of a specific target location mapped from the 3D mapping engine unit to a screen.

구체적으로 설명하면, 도 6과 같이, 사용자단말기가 VR기기일 경우에 상기 3D정보요청부(1100)를 통해 특정 대상지에 대한 3D 정보를 요청하게 된다.Specifically, as shown in FIG. 6, when the user terminal is a VR device, the 3D information request unit 1100 requests 3D information on a specific destination.

예를 들어, 부산해운에 정박 중인 A해운에 대한 3D 정보를 3D정보요청부(1100)에 의해 요청하게 되면, 3D포인트클라우드기반가상현실공간맵서버(100)에서 A해운에 대한 3D 정보를 대상지정사영상정보DB로부터 추출하게 되며, 상기 추출된 A해운에 대한 3D 정보인 3차원 정사영상과 DSM 정보를 해당 사용자단말기로 전송하게 된다.For example, when the 3D information request unit 1100 requests 3D information about A shipping anchored in Busan Shipping, the 3D point cloud-based virtual reality space map server 100 targets the 3D information about A shipping. The 3D orthogonal image and the DSM information, which are 3D information about the A shipping, are transmitted to the corresponding user terminal.

이때, 3D맵핑엔진부(1200)는 특정 대상지인 A해운에 대한 3D 정보인 3차원 정사영상과 DSM을 획득하여 이를 VR로 맵핑하게 된다.At this time, the 3D mapping engine 1200 acquires the 3D orthogonal image and the DSM, which are 3D information about the A shipping, which is a specific target, and maps it to VR.

이후, 상기 3D정보출력부(1300)는 상기 3D맵핑엔진부로부터 맵핑된 특정 대상지인 A해운에 대한 3D 정보를 화면에 출력시키게 되는 것이다.Thereafter, the 3D information output unit 1300 outputs 3D information on the A shipping, which is a specific destination mapped from the 3D mapping engine.

상기와 같이, 구성하게 되면, 각 산업분야에 맞게 3D Mapping 응용프로그램을 활용하여 실무에 적용이 가능하게 된다.If configured as above, it is possible to apply to the practical application by using the 3D Mapping application program for each industry.

또한, 3D 포인트클라우드를 활용할 수 있는 가상현실(VR) 프로그램을 통해 공간 맵 액세스 3D 인식을 수행할 수 있게 되는 것이다.In addition, the spatial map access 3D recognition can be performed through a virtual reality (VR) program that can utilize the 3D point cloud.

도 7은 본 발명의 실시예에 따른 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method for providing a virtual reality space map based on an orthogonal image 3D point cloud DB using an unmanned aerial vehicle and a 3D lidar scanner for ground according to an embodiment of the present invention.

도 7에 도시한 바와 같이, 본 발명인 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법은 3D정보취득단계(S100), GPS정밀도수행단계(S200), 3D포인트클라우드정사영상생성단계(S300), 대상지정사영상정보DB구축단계(S400), 대상지3D정보제공단계(S500)를 포함하게 된다.As shown in FIG. 7, the method for providing a virtual reality space map based on the 3D point cloud DB construction of an orthogonal image using the inventor's unmanned aerial vehicle and a ground 3D lidar scanner includes a 3D information acquisition step (S100) and a GPS precision execution step. (S200), the 3D point cloud orthodontic image generation step (S300), the target designated image information DB construction step (S400), and the destination 3D information providing step (S500).

구체적으로 설명하자면, 상기 3D정보취득단계(S100)는 3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)에 의해 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와 지상용 3D라이다스캐너(300)에 의해 스캐닝된 대상지에 대한 라이다 스캐닝 정보를 취득하는 과정이다.Specifically, the 3D information acquisition step (S100) is a 3D point cloud-based virtual reality space map server 100 camera capture image information and the ground 3D lidar scanner for the target location photographed by the unmanned aerial vehicle 200 It is a process of acquiring lidar scanning information about the target location scanned by 300.

예를 들어, 3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기의 비행계획 수립한 후, 수립된 비행계획정보를 무인항공기로 제공하게 되면, 무인항공기는 비행계획에 따라 비행하면서 카메라를 이용하여 대장시에 대한 촬영을 수행하게 된다.For example, after the 3D point cloud-based virtual reality space map server 100 establishes a flight plan of an unmanned aerial vehicle, and provides the established flight plan information to the unmanned aerial vehicle, the unmanned aerial vehicle moves the camera while flying according to the flight plan. To take pictures of the colon.

도 8을 참조하여 구체적으로 설명하면, 상기 3D정보취득단계(S100)는,Specifically, referring to Figure 8, the 3D information acquisition step (S100),

3D포인트클라우드기반가상현실공간맵서버(100)가 eMotion SW를 활용하여 무인항공기의 비행계획을 수립하며, 수립된 비행계획 정보를 무인항공기로 제공하기 위한 비행계획수립단계(S110);A 3D point cloud-based virtual reality space map server 100 establishes a flight plan of the unmanned aerial vehicle using eMotion SW, and establishes a flight plan for providing the established flight plan information to the unmanned aerial vehicle (S110);

3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)로부터 해당 대상지에 대한 카메라 캡쳐이미지 정보를 취득하기 위한 카메라캡쳐이미지정보취득단계(S120);Camera capture image information acquisition step (S120) for the 3D point cloud-based virtual reality space map server 100 to acquire camera capture image information of the target location from the unmanned aerial vehicle 200;

3D포인트클라우드기반가상현실공간맵서버(100)가 지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 동작 신호에 따라 스캐닝한 해당 대상지에 대한 라이다 스캐닝 정보를 취득하기 위한 라이다스캐닝정보취득단계(S130);를 포함하게 된다.The 3D point cloud-based virtual reality space map server 100 provides an operation signal to the ground 3D lidar scanner 300, and performs lidar scanning for acquiring lidar scanning information about a target object scanned according to the operation signal. Information acquisition step (S130); will be included.

이후, 상기 GPS정밀도수행단계(S200)는 3D포인트클라우드기반가상현실공간맵서버(100)가 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 보정하기 위한 GPS 보정정보를 생성하는 과정이다. 따라서, GPS 보정정보를 통해 부정확성을 제거할 수 있게 되어 GPS 정밀도를 더욱 향상시킬 수 있게 된다.Then, the GPS precision performing step (S200) is a 3D point cloud-based virtual reality space map server 100 from the ground surveyor 500 N GCP (Ground Control Point, ground reference point) for the destination VRS (Virtual Reference Station), Virtual reference point) is a process of generating GPS correction information for correcting GPS accuracy by acquiring a result of performing a survey. Therefore, it is possible to remove the inaccuracy through the GPS correction information, it is possible to further improve the GPS accuracy.

이후, 3D포인트클라우드정사영상생성단계(S300)는 3D포인트클라우드기반가상현실공간맵서버(100)가영상처리프로그램을 이용하여 상기 3D정보취득단계(S100)에서 취득된 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보에 GPS정밀도수행단계(S200)에서 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하는 과정이다.Subsequently, the 3D point cloud orthodontic image generation step (S300) is performed by the 3D point cloud-based virtual reality space map server 100 using the image processing program and the respective camera capture image information acquired in the 3D information acquisition step (S100). In this step, the ordinal image and the DSM (Digital Surface Model) that improve the accuracy of the 3D point cloud are generated by matching the GPS correction information generated in the GPS precision performing step (S200) with the lidar scanning information.

이후, 대상지정사영상정보DB구축단계(S400)는 3D포인트클라우드기반가상현실공간맵서버(100)가 3D 포인트클라우드로 생성된 3차원 정사영상과 DSM을 저장하는 과정이다.Thereafter, the target designated image information DB construction step (S400) is a process in which the 3D point cloud-based virtual reality space map server 100 stores the 3D orthogonal image and the DSM generated by the 3D point cloud.

상기 3D 포인트클라우드의 3차원 정사영상과 DSM은 대상지정사영상정보DB(180)에 대상지별로 저장되는 것이다.The 3D orthogonal image and the DSM of the 3D point cloud are stored in the destination designated image information DB 180 for each destination.

이후, 대상지3D정보제공단계(S500)는 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 3D포인트클라우드기반가상현실공간맵서버(100)가 저장된 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하는 과정이다.Then, the target site 3D information providing step (S500) when the 3D information request for a specific target from the user terminal, the 3D point cloud-based virtual reality space map server 100 extracts the orthoimage and the DSM, the 3D information on the target site stored; Is a process of transmitting to a user terminal.

부가적인 양태에 따라, 상기 3D정보취득단계(S100)는 3D포인트클라우드기반가상현실공간맵서버(100)가 모바일 맵핑장치(400)에 동작 신호를 제공하며, 모바일 맵핑장치(400)로부터 해당 대상지에 대한 MMS 정보를 취득하기 위한 MMS정보취득단계(S140)를 더 포함할 수 있다. 즉, MMS 정보를 취득함으로써, 3차원 정보로 가공할 경우에 정확성을 향상시킬 수 있게 되며, 라이다 스캐너와 모바일 맵핑시스템을 동시에 활용하기 때문에 3차원 정보의 정밀성과 오차 보정 편이성을 제공할 수 있게 된다.According to an additional aspect, the 3D information acquisition step (S100) is a 3D point cloud-based virtual reality space map server 100 provides an operation signal to the mobile mapping device 400, the target location from the mobile mapping device 400 MMS information acquisition step (S140) for acquiring MMS information for may further include. That is, by acquiring MMS information, it is possible to improve the accuracy when processing into 3D information, and by using the LiDAR scanner and mobile mapping system simultaneously, it is possible to provide precision and error correction convenience of 3D information. do.

이 경우, 상기 3D포인트클라우드정사영상생성단계(S300)는 3D포인트클라우드기반가상현실공간맵서버(100)가 영상처리프로그램을 이용하여 상기 3D정보취득단계(S100)에서 취득된 해당 대상지에 대한 각각의 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 MMS 정보에 GPS정밀도수행단계(S200)에서 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하는 것을 특징으로 한다.In this case, the 3D point cloud orthodontic image generation step (S300) is a 3D point cloud-based virtual reality space map server 100 using the image processing program for each of the corresponding destination acquired in the 3D information acquisition step (S100). Orthoimages and digital surface models (DSMs) that improve the accuracy of the 3D point cloud by matching the camera capture image information of the camera and the lidar scanning information and MMS information with GPS correction information generated in the GPS precision performance step (S200), respectively. Model).

상기와 같은 본 발명에 의하면, 초경량 무인항공기(Unmanned Aerial Vehicle)를 활용하여 저고도 항공사진측량을 실시한 후, 지상용 3D라이다스캐너 혹은 모바일 맵핑장치를 통해 취득된 3D 정보를 이용하여 정사영상 지도를 제작하여 기존의 여러 명이 반복적으로 측량하는 열악한 환경의 비능률적인 현황측량 실무 작업에 적용시켜, 측량인력 및 작업시간을 효율적으로 대체 및 절약하고, 새로운 측량 솔루션을 제공하는 효과를 발휘한다.According to the present invention as described above, after performing a low-altitude aerial survey using an ultralight unmanned aerial vehicle, an orthoimage map is generated using 3D information acquired through a 3D ground scanner or a mobile mapping device on the ground. It is produced and applied to the inefficient current surveying work in the harsh environment, which is repeatedly performed by several existing people, effectively replacing and saving the survey manpower and working hours, and providing a new survey solution.

즉, 취득된 3D정보를 이용하여 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정밀도를 보정한 후, 영상처리프로그램을 이용하여 각각의 카메라 캡쳐이미지 정보와, 라이다 스캐닝 정보 혹은 MMS 정보에 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 대상지정사영상정보DB에 저장시켜 관리함으로써, 2D 영상 정보뿐만 아니라, 3D 영상 정보를 동시에 제공하게 되어 특정 대상지에 대한 정보를 입체적으로 확인할 수 있는 효과를 발휘한다.In other words, by using the acquired 3D information, after obtaining N GCP (Ground Control Point) VRS (Virtual Reference Station) VRS (Virtual Reference Point) survey results of the destination, the GPS precision is corrected, and image processing is performed. By using the program, each camera captured image information and lidar scanning information or MMS information are matched with GPS correction information to generate orthoimages and digital surface models (DSM) that improve the accuracy of the 3D point cloud. By storing and managing in the designated target image information DB, not only the 2D image information but also the 3D image information is provided at the same time.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the above-described specific embodiment, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

100 : 3D포인트클라우드기반가상현실공간맵서버
200 : 무인항공기
300 : 지상용 3D라이다스캐너
400 : 모바일 맵핑장치
500 : 지상측량기
1000 : 사용자단말기
100: 3D point cloud-based virtual reality space map server
200: unmanned aerial vehicle
300: 3D rider scanner for the ground
400: mobile mapping device
500: ground surveyor
1000: user terminal

Claims (7)

무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템에 있어서,
무인항공기(200)로부터 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와 지상용 3D라이다스캐너(300)로부터 스캐닝 된 대상지에 대한 라이다 스캐닝 정보와 모바일 맵핑장치(400)로부터 대상지에 대한 MMS 정보를 취득하며, 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하고, 지상측량기(500)로부터 획득한 결과값을 이용하여 무인항공기(200)와 지상용 3D라이다스캐너(300)와 모바일 맵핑장치(400)로부터 획득한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 대상지에 대한 MMS 정보의 GPS 정확도를 항샹시키기 위한 GPS 보정정보를 생성한 후, 영상처리프로그램을 이용하여 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 대상지에 대한 MMS 정보에 생성된 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하여 저장시키며, 사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 3D포인트클라우드기반가상현실공간맵서버(100)와;
3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 비행계획정보에 따라 비행하면서 대상지를 촬영하고, 촬영된 대상지에 대한 카메라 캡쳐이미지 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 무인항공기(200)와;
3D포인트클라우드기반가상현실공간맵서버(100)가 제공하는 동작신호에 따라 대상지를 스캐닝하고, 스캐닝된 대상지에 대한 라이다 스캐닝 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상용 3D라이다스캐너(300)와;
대상지에 대한 MMS 정보를 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)에 전송하는 모바일 맵핑장치(400)와;
대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 생성하여 3D포인트클라우드기반가상현실공간맵서버(100)로 제공하는 지상측량기(500)와;

특정 대상지에 대한 3D 정보를 3D포인트클라우드기반가상현실공간맵서버(100)로 요청하며, 특정 대상지에 대한 3D 정보인 정사영상과 DSM을 획득하여 3D맵핑엔진부를 통해 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 사용자단말기(1000)를 포함하는 것을 특징으로 하는 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템.
In the virtual reality space map providing system based on orthoimage 3D point cloud DB using unmanned aerial vehicle and 3D lidar scanner for ground,
Acquire camera capture image information about the target image photographed from the unmanned aerial vehicle 200, and lidar scanning information about the target region scanned from the ground 3D rider scanner 300, and MMS information about the target region from the mobile mapping device 400. And obtaining the results of performing N ground control point (GCP) virtual reference station (VRS) surveys on the target site from the ground surveyor 500, and obtaining the result from the ground surveyor 500. Enhancing GPS Accuracy of Camera Capture Image Information, Lidar Scanning Information, and MMS Information on the Destination Using the Values of Unmanned Aerial Vehicle 200, Ground-based 3D Lidar Scanner 300, and Mobile Mapping Device 400 After generating GPS correction information for the camera, the GPS correction generated in the camera capture image information, the lidar scanning information and the MMS information of the destination using an image processing program Matching beams to generate orthogonal images and digital surface models (DSMs) that improve the accuracy of the 3D point cloud and save them.When requesting 3D information about a specific destination from the user terminal, the target image information DB is applied. A 3D point cloud-based virtual reality space map server 100 for extracting orthogonal images and DSMs, which are 3D information on a target location, and transmitting the extracted 3D information to a user terminal;
3D point cloud-based virtual reality space map server 100 is taken according to the flight plan information provided by the flight plan, and the camera capture image information on the photographed destination to the 3D point cloud-based virtual reality space map server 100 Providing an unmanned aerial vehicle 200;
The ground scanning the target area according to the operation signal provided by the 3D point cloud-based virtual reality space map server 100, and provides a lidar scanning information on the scanned target site to the 3D point cloud-based virtual reality space map server 100 A 3D rider scanner 300;
A mobile mapping device 400 for generating MMS information on the target location and transmitting the generated MMS information to the 3D point cloud-based virtual reality space map server 100;
The ground value provided by the 3D point cloud-based virtual reality space map server 100 by generating a result of performing a VRS (Virtual Reference Station (VRS)) survey on N ground control points (GCPs) of the target site. An instrument 500;

Requests 3D information about a specific target to the 3D point cloud-based virtual reality space map server 100, obtains orthoimages and DSMs, which are 3D information about the specific target, and displays 3D information of the specific target mapped through the 3D mapping engine. Virtual reality space map providing system based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner, characterized in that it comprises a user terminal (1000) for output to the screen.
제 1항에 있어서,
상기 3D포인트클라우드기반가상현실공간맵서버(100)는,
비행계획프로그램을 이용하여 무인항공기의 비행계획을 수립하며, 수립된 비행계획정보를 무인항공기로 제공하기 위한 비행계획수립부(110);
무인항공기(200)로부터 대상지에 대한 카메라 캡쳐이미지 정보를 취득하기 위한 카메라캡쳐이미지정보취득부(120);
지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 지상용 3D라이다스캐너(300)로부터 대상지에 대한 라이다 스캐닝 정보를 취득하기 위한 라이다스캐닝정보취득부(130);
모바일 맵핑장치(400)로부터 대상지에 대한 MMS 정보를 획득하는 MMS정보취득부(140)와,
지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점)에 대한 VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 향상시키기 위한 GPS 보정정보를 생성하는 GPS정밀도수행부(150);
영상처리프로그램에 의해 상기 카메라캡쳐이미지정보취득부(120)와 라이다스캐닝정보취득부(130)와 MMS정보취득부(140)에서 취득된 대상지에 대한 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 MMS 정보에 GPS정밀도수행부(150)가 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 3차원 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하기 위한 3D포인트클라우드정사영상생성부(160);
상기 3D포인트클라우드정사영상생성부에 의해 생성된 3D 포인트클라우드의 3차원 정사영상과 DSM을 대상지정사영상정보DB에 저장시키기 위한 대상지정사영상정보DB구축부(170);
상기 대상지정사영상정보DB구축부에 의해 제공된 3D 포인트클라우드의 정사영상과 DSM을 대상지별로 저장하고 있는 대상지정사영상정보DB(180);
사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 상기 대상지정사영상정보DB로부터 해당 대상지에 대한 3D 정보인 3차원 정사영상과 DSM을 추출하여 사용자단말기로 전송하기 위한 대상지3D정보제공부(190);를 포함하는 것을 특징으로 하는 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템.
The method of claim 1,
The 3D point cloud-based virtual reality space map server 100,
A flight plan establishment unit 110 for establishing a flight plan of the unmanned aerial vehicle using a flight plan program and providing the established flight plan information to the unmanned aerial vehicle;
A camera capture image information acquisition unit 120 for acquiring camera capture image information on a target location from the unmanned aerial vehicle 200;
A lidar scanning information acquisition unit 130 for providing an operation signal to the ground 3D rider scanner 300 and acquiring lidar scanning information about a target from the ground 3D rider scanner 300;
MMS information acquisition unit 140 for obtaining MMS information about the destination from the mobile mapping device 400,
GPS correction information for improving GPS accuracy is obtained by obtaining a value obtained by performing a VRS (Virtual Reference Station (VRS)) survey on N ground control points (GCPs) of the target site from the ground surveyor 500. GPS precision performing unit 150 for generating;
Camera capture image information, lidar scanning information, and MMS for a target location acquired by the camera capture image information acquisition unit 120, the rider scanning information acquisition unit 130, and the MMS information acquisition unit 140 by an image processing program. 3D point cloud inspection for generating 3D orthogonal image and DSM (Digital Surface Model) to improve accuracy of 3D point cloud by matching GPS correction information generated by GPS precision performing unit 150 to information Image generation unit 160;
A target designated image information DB building unit 170 for storing the 3D orthogonal image and the DSM of the 3D point cloud generated by the 3D point cloud orthoimage generating unit in the target designated image information DB;
A target designated image information DB (180) which stores the orthoimages of the 3D point cloud and the DSM provided by the target sites by the target designated image information DB construction unit;
A destination 3D information providing unit 190 for extracting 3D orthogonal images and DSMs, which are 3D information on the destination from the destination designated image information DB, and transmitting the 3D information to the user terminal when requesting 3D information about a specific destination from the user terminal; Virtual reality space map providing system based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner comprising a.
제 1항에 있어서,
상기 사용자단말기(1000)는,
특정 대상지에 대한 3D 정보를 요청하기 위한 3D정보요청부(1100);
상기 특정 대상지에 대한 3D 정보인 3차원 정사영상과 DSM을 획득할 경우, 이를 맵핑시키기 위한 3D맵핑엔진부(1200);
상기 3D맵핑엔진부로부터 맵핑된 특정 대상지의 3D 정보를 화면에 출력시키기 위한 3D정보출력부(1300);를 포함하여 구성되는 것을 특징으로 하는 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공시스템.
The method of claim 1,
The user terminal 1000,
A 3D information request unit 1100 for requesting 3D information about a specific target location;
A 3D mapping engine unit 1200 for mapping the 3D orthogonal image and the DSM which are 3D information on the specific target location;
3D information output unit (1300) for outputting the 3D information of the specific target location mapped from the 3D mapping engine unit; and an orthogonal image using a 3D lidar scanner and an unmanned aerial vehicle, characterized in that it comprises a Virtual reality space map providing system based on 3D point cloud DB.
삭제delete 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법에 있어서,
3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)에 의해 촬영된 대상지에 대한 카메라 캡쳐이미지 정보와 지상용 3D라이다스캐너(300)에 의해 스캐닝된 대상지에 대한 라이다 스캐닝 정보와 모바일 맵핑장치(400)로부터 해당 대상지에 대한 MMS 정보를 취득하는 3D정보취득단계(S100);
3D포인트클라우드기반가상현실공간맵서버(100)가 지상측량기(500)로부터 대상지에 대한 N개의 GCP(Ground Control Point, 지상기준점) VRS(Virtual Reference Station, 가상기준점) 측량을 수행한 결과값을 획득하여 GPS 정확도를 보정하기 위한 GPS 보정정보를 생성하는 GPS정밀도수행단계(S200);
3D포인트클라우드기반가상현실공간맵서버(100)가 영상처리프로그램을 이용하여 상기 3D정보취득단계(S100)에서 취득된 해당 대상지에 대한 각각의 카메라 캡쳐이미지 정보와 라이다 스캐닝 정보와 MMS 정보에 GPS정밀도수행단계(S200)에서 생성한 GPS 보정정보를 각각 매칭시켜 3D 포인트클라우드의 정확도를 향상시킨 정사영상과 DSM(Digital Surface Model, 수치표면모델)을 생성하는 3D포인트클라우드정사영상생성단계(S300);
3D포인트클라우드기반가상현실공간맵서버(100)가 3D포인트클라우드기반가상현실공간맵서버(100)가 3D 포인트클라우드로 생성된 3차원 정사영상과 DSM을 저장하는 대상지정사영상정보DB구축단계(S400);
사용자단말기로부터 특정 대상지에 대한 3D 정보 요청시, 3D포인트클라우드기반가상현실공간맵서버(100)가 저장된 해당 대상지에 대한 3D 정보인 정사영상과 DSM을 추출하여 사용자단말기로 전송하는 대상지3D정보제공단계(S500);를 포함하는 것을 특징으로 하는 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법.
A method for providing a virtual reality space map based on orthoimage 3D point cloud DB construction using an unmanned aerial vehicle and a ground 3D rider scanner,
3D point cloud-based virtual reality space map server 100 is the camera capture image information about the target image taken by the unmanned aerial vehicle 200 and the lidar scanning information about the target object scanned by the ground 3D lidar scanner 300 And 3D information acquisition step (S100) of acquiring MMS information on the corresponding destination from the mobile mapping apparatus 400;
The 3D point cloud-based virtual reality space map server 100 obtains the result of performing N GCP (Ground Control Point) virtual reference station (VRS) surveys on the target site from the ground surveyor 500. GPS precision performing step of generating GPS correction information for correcting the GPS accuracy (S200);
The 3D point cloud-based virtual reality space map server 100 uses the image processing program to obtain GPS information on each of the camera capture image information, the lidar scanning information, and the MMS information of the corresponding destination acquired in the 3D information acquisition step (S100). 3D point cloud orthodontic image generation step (S300) for generating an orthoimage and a DSM (Digital Surface Model) to improve the accuracy of the 3D point cloud by matching the GPS correction information generated in the precision performing step (S200), respectively. ;
3D point cloud-based virtual reality space map server 100 is a 3D point cloud-based virtual reality space map server 100 is a target designation image information DB for storing the 3D orthogonal image and DSM generated by the 3D point cloud (S400) );
When requesting 3D information on a specific destination from the user terminal, the 3D point cloud-based virtual reality space map server 100 extracts orthogonal images and DSMs, which are stored 3D information on the corresponding destination, and transmits them to the user terminal. Method of providing a virtual reality space map based on the orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner, characterized in that it comprises a (S500).
제 5항에 있어서,
상기 3D정보취득단계(S100)는,
3D포인트클라우드기반가상현실공간맵서버(100)가 eMotion SW를 활용하여 무인항공기의 비행계획을 수립하며, 수립된 비행계획 정보를 무인항공기로 제공하기 위한 비행계획수립단계(S110);
3D포인트클라우드기반가상현실공간맵서버(100)가 무인항공기(200)로부터 해당 대상지에 대한 카메라 캡쳐이미지 정보를 취득하기 위한 카메라캡쳐이미지정보취득단계(S120);
3D포인트클라우드기반가상현실공간맵서버(100)가 지상용 3D라이다스캐너(300)에 동작 신호를 제공하며, 동작 신호에 따라 스캐닝한 해당 대상지에 대한 라이다 스캐닝 정보를 취득하기 위한 라이다스캐닝정보취득단계(S130);
3D포인트클라우드기반가상현실공간맵서버(100)가 모바일 맵핑장치(400)에 동작 신호를 제공하며, 모바일 맵핑장치(400)로부터 해당 대상지에 대한 MMS 정보를 취득하기 위한 MMS정보취득단계(S140)를 포함하는 것을 특징으로 하는 무인항공기와 지상용 3D라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 DB 구축기반 가상현실 공간 맵 제공방법.
The method of claim 5,
The 3D information acquisition step (S100),
A 3D point cloud-based virtual reality space map server 100 establishes a flight plan of the unmanned aerial vehicle using eMotion SW, and establishes a flight plan for providing the established flight plan information to the unmanned aerial vehicle (S110);
Camera capture image information acquisition step (S120) for the 3D point cloud-based virtual reality space map server 100 to acquire camera capture image information of the target location from the unmanned aerial vehicle 200;
The 3D point cloud-based virtual reality space map server 100 provides an operation signal to the ground 3D lidar scanner 300, and performs lidar scanning for acquiring lidar scanning information about a target object scanned according to the operation signal. Information acquisition step (S130);
The 3D point cloud-based virtual reality space map server 100 provides an operation signal to the mobile mapping device 400, and MMS information acquisition step for acquiring MMS information for the corresponding destination from the mobile mapping device 400 (S140). Method for providing a virtual reality space map based on orthoimage 3D point cloud DB using an unmanned aerial vehicle and a ground 3D lidar scanner comprising a.
삭제delete
KR1020190007278A 2019-01-21 2019-01-21 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner KR102015388B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190007278A KR102015388B1 (en) 2019-01-21 2019-01-21 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190007278A KR102015388B1 (en) 2019-01-21 2019-01-21 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner

Publications (1)

Publication Number Publication Date
KR102015388B1 true KR102015388B1 (en) 2019-08-28

Family

ID=67775572

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190007278A KR102015388B1 (en) 2019-01-21 2019-01-21 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner

Country Status (1)

Country Link
KR (1) KR102015388B1 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689774A (en) * 2019-10-14 2020-01-14 国家电网有限公司 Construction and use method of power station switching operation training system based on virtual reality
KR102195051B1 (en) * 2020-09-25 2020-12-24 김화경 System and method for creating spatial information using image information from drone and computer program for the same
KR102238911B1 (en) 2020-04-23 2021-04-16 비아이밀리그램㈜ Apparatus, method and system for extracting and analysing construction status of building
KR20210056560A (en) * 2019-11-11 2021-05-20 류승완 Device and Method For Providing Map Information
KR102299725B1 (en) * 2020-06-18 2021-09-07 인천대학교 산학협력단 3-Dimension image information generation system and method of vertical structure
KR20220001274A (en) 2020-06-29 2022-01-05 (주)뉴빌리티 3D map change area update system and method
CN113965721A (en) * 2020-07-21 2022-01-21 佐臻股份有限公司 Alignment method of image and depth transmission monitoring system
CN114137569A (en) * 2021-09-26 2022-03-04 碧空环境科技有限公司 Pollution traceability system based on laser radar and unmanned aerial vehicle combination
CN114460592A (en) * 2022-02-08 2022-05-10 北京建筑大学 Track moving laser radar measuring system and method based on 5G communication
KR20220077816A (en) 2020-12-02 2022-06-09 주식회사 타임텍 Method for processing massive point cloud data and system thereof
CN114817439A (en) * 2022-04-25 2022-07-29 南京泛在地理信息产业研究院有限公司 Holographic map construction method based on geographic information system
KR20220150170A (en) * 2021-05-03 2022-11-10 이재영 Drone used 3d mapping method
KR102481914B1 (en) 2022-04-28 2022-12-28 서광항업 주식회사 Apparatus for obtaining 3D spatial information of underground facilities using cell phone lidar and photos and method for obtaining 3D spatial information of underground facilities using the same
KR102528742B1 (en) 2022-12-19 2023-05-04 서광항업 주식회사 Apparatus for obtaining 3D spatial information of underground facilities using cell phone lidar and camera
KR102528740B1 (en) 2022-12-19 2023-05-04 서광항업 주식회사 Systems for monitoring and obtaining 3D spatial information of underground facilities
CN116182802A (en) * 2023-03-13 2023-05-30 水利部交通运输部国家能源局南京水利科学研究院 Method and system for detecting artificial island facing block based on three-dimensional scanning technology

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101323971B1 (en) 2012-09-03 2013-10-31 현대엠엔소프트 주식회사 A method for automatic generation of tunnel information using a mobile mapping system
KR20140014596A (en) * 2012-07-25 2014-02-06 연세대학교 산학협력단 Indoor 3d model extraction method based on point clouds from terrestrial lidar and recording medium thereof
KR20150128300A (en) * 2014-05-09 2015-11-18 한국건설기술연구원 method of making three dimension model and defect analysis using camera and laser scanning
KR20180007595A (en) * 2016-07-13 2018-01-23 한국전자통신연구원 3D matching apparatus using the point cloud and a method therefor
KR101863123B1 (en) * 2017-02-15 2018-06-01 한국건설기술연구원 System for mapping river water-bloom map using automatic driving unmanned air vehicle and unmanned floating body of moving type
KR20180131932A (en) * 2017-06-01 2018-12-11 충남대학교산학협력단 River topography information generation method using drone and geospatial information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140014596A (en) * 2012-07-25 2014-02-06 연세대학교 산학협력단 Indoor 3d model extraction method based on point clouds from terrestrial lidar and recording medium thereof
KR101323971B1 (en) 2012-09-03 2013-10-31 현대엠엔소프트 주식회사 A method for automatic generation of tunnel information using a mobile mapping system
KR20150128300A (en) * 2014-05-09 2015-11-18 한국건설기술연구원 method of making three dimension model and defect analysis using camera and laser scanning
KR20180007595A (en) * 2016-07-13 2018-01-23 한국전자통신연구원 3D matching apparatus using the point cloud and a method therefor
KR101863123B1 (en) * 2017-02-15 2018-06-01 한국건설기술연구원 System for mapping river water-bloom map using automatic driving unmanned air vehicle and unmanned floating body of moving type
KR20180131932A (en) * 2017-06-01 2018-12-11 충남대학교산학협력단 River topography information generation method using drone and geospatial information

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
(비특허문헌 001) Casbeer, D W, Li, S M, Beardd, R W, McLain, T W and Mehra, R K, 2008, "Fire Monitoring with Multiple Small UAVs"Proceedings of the American Control Conference, Portland, USA Colomina.
(비특허문헌 002) Colomina, I, Blazquez, M, Molina, P, Pares, M E and Wis, M, 2008, "A New Paradigm for High-Resolution Low-Cost Photogrammetryand Remote Sensing"ISPRS XXI Congress Beijing, China, Jul 3-11, 2008 pp1201-1206.

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689774B (en) * 2019-10-14 2022-05-10 国家电网有限公司 Construction and use method of power station switching operation training system based on virtual reality
CN110689774A (en) * 2019-10-14 2020-01-14 国家电网有限公司 Construction and use method of power station switching operation training system based on virtual reality
KR102259451B1 (en) * 2019-11-11 2021-06-01 류승완 Device and Method For Providing Map Information
KR20210056560A (en) * 2019-11-11 2021-05-20 류승완 Device and Method For Providing Map Information
KR102238911B1 (en) 2020-04-23 2021-04-16 비아이밀리그램㈜ Apparatus, method and system for extracting and analysing construction status of building
KR102299725B1 (en) * 2020-06-18 2021-09-07 인천대학교 산학협력단 3-Dimension image information generation system and method of vertical structure
KR20220001274A (en) 2020-06-29 2022-01-05 (주)뉴빌리티 3D map change area update system and method
CN113965721B (en) * 2020-07-21 2024-02-23 佐臻股份有限公司 Alignment method for image and depth transmission monitoring system
CN113965721A (en) * 2020-07-21 2022-01-21 佐臻股份有限公司 Alignment method of image and depth transmission monitoring system
KR102195051B1 (en) * 2020-09-25 2020-12-24 김화경 System and method for creating spatial information using image information from drone and computer program for the same
KR20220077816A (en) 2020-12-02 2022-06-09 주식회사 타임텍 Method for processing massive point cloud data and system thereof
KR20230035304A (en) 2020-12-02 2023-03-13 주식회사 타임텍 Method for processing massive point cloud data and system thereof
KR20220150170A (en) * 2021-05-03 2022-11-10 이재영 Drone used 3d mapping method
KR102488553B1 (en) 2021-05-03 2023-01-12 이재영 Drone used 3d mapping method
CN114137569A (en) * 2021-09-26 2022-03-04 碧空环境科技有限公司 Pollution traceability system based on laser radar and unmanned aerial vehicle combination
CN114460592A (en) * 2022-02-08 2022-05-10 北京建筑大学 Track moving laser radar measuring system and method based on 5G communication
CN114460592B (en) * 2022-02-08 2024-04-16 北京建筑大学 Rail movement laser radar measurement system and method based on 5G communication
CN114817439A (en) * 2022-04-25 2022-07-29 南京泛在地理信息产业研究院有限公司 Holographic map construction method based on geographic information system
CN114817439B (en) * 2022-04-25 2024-04-19 南京泛在地理信息产业研究院有限公司 Holographic map construction method based on geographic information system
KR102481914B1 (en) 2022-04-28 2022-12-28 서광항업 주식회사 Apparatus for obtaining 3D spatial information of underground facilities using cell phone lidar and photos and method for obtaining 3D spatial information of underground facilities using the same
KR102528740B1 (en) 2022-12-19 2023-05-04 서광항업 주식회사 Systems for monitoring and obtaining 3D spatial information of underground facilities
KR102528742B1 (en) 2022-12-19 2023-05-04 서광항업 주식회사 Apparatus for obtaining 3D spatial information of underground facilities using cell phone lidar and camera
CN116182802A (en) * 2023-03-13 2023-05-30 水利部交通运输部国家能源局南京水利科学研究院 Method and system for detecting artificial island facing block based on three-dimensional scanning technology
CN116182802B (en) * 2023-03-13 2024-03-26 水利部交通运输部国家能源局南京水利科学研究院 Method and system for detecting artificial island facing block based on three-dimensional scanning technology

Similar Documents

Publication Publication Date Title
KR102015388B1 (en) 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner
KR102001728B1 (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
Fernández‐Hernandez et al. Image‐based modelling from unmanned aerial vehicle (UAV) photogrammetry: an effective, low‐cost tool for archaeological applications
Caroti et al. Accuracy assessment in structure from motion 3D reconstruction from UAV-born images: The influence of the data processing methods
EP2923173B1 (en) Integrated aerial photogrammetry surveys
Barry et al. Field accuracy test of RPAS photogrammetry
KR101105606B1 (en) The method and apparatus of topographical map data with movement multi sensor moudle
Raczynski Accuracy analysis of products obtained from UAV-borne photogrammetry influenced by various flight parameters
Erenoglu et al. Accuracy assessment of low cost UAV based city modelling for urban planning
JP6555522B2 (en) Information processing apparatus, information processing method, and program
Tahar A new approach on slope data acquisition using unmanned aerial vehicle
Ruzgienė et al. UAV photogrammetry for road surface modelling
Kurkov et al. DEM accuracy research based on unmanned aerial survey data
CN115825067A (en) Geological information acquisition method and system based on unmanned aerial vehicle and electronic equipment
Udin et al. Digital Terrain Model extraction using digital aerial imagery of Unmanned Aerial Vehicle
Lin et al. Micro-UAV based remote sensing method for monitoring landslides in three gorges reservoir, China
Darwin et al. The potential of low altitude aerial data for large scale mapping
Suba et al. Using photogrammetric UAV measurements as support for classical topographical measurements in order to obtain the topographic plan for urban areas.
Shukina et al. Using Digital Photogrammetry to Create Large-Scale Topographic Maps and Plans in Uzbekistan
Patias et al. Evaluating horizontal positional accuracy of low-cost UAV orthomosaics over forest terrain using ground control points extracted from different sources
Guntel et al. Accuracy analysis of control point distribution for different terrain types on photogrammetric block
Lee et al. Comparison of terrestrial laser scanner with digital aerial photogrammetry for extracting ridges in the rice paddies
KR102642117B1 (en) Method for setting 3-dimension flight path of unmanned aerial vehicle
Bayyati Modern surveying technology: Availability and suitability for heritage building surveying and heritage building information models (HerBIM)
Thiab et al. Direct and Indirect Georeferencing with a Light-Weight UAV and an RTK UAV

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant