KR20230138108A - Drone image analysis method using open source - Google Patents

Drone image analysis method using open source Download PDF

Info

Publication number
KR20230138108A
KR20230138108A KR1020220035735A KR20220035735A KR20230138108A KR 20230138108 A KR20230138108 A KR 20230138108A KR 1020220035735 A KR1020220035735 A KR 1020220035735A KR 20220035735 A KR20220035735 A KR 20220035735A KR 20230138108 A KR20230138108 A KR 20230138108A
Authority
KR
South Korea
Prior art keywords
open source
image analysis
image
uav
point
Prior art date
Application number
KR1020220035735A
Other languages
Korean (ko)
Inventor
김달주
하형구
한웅지
Original Assignee
주식회사 코매퍼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코매퍼 filed Critical 주식회사 코매퍼
Priority to KR1020220035735A priority Critical patent/KR20230138108A/en
Publication of KR20230138108A publication Critical patent/KR20230138108A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

상기 기술적 과제를 해결하기 위한 오픈소스를 활용한 드론 영상해석 방법은, 4차산업혁명시대의 핵심 분야로 주목받고 있는 드론을 활용하여 전통적인 사진측량(Photogrammetry) 기술과 정보통신 분야의 영상해석 기술(CV; Computer Vision)의 발전과 융합으로 SfM(Structure-from-Motion) 기반 3차원 영상해석을 진행하는 단계를 포함하는 오픈소스를 활용한 드론 영상해석 방법에 관한 것이다.The drone image analysis method using open source to solve the above technical challenges is a method of using drones, which are attracting attention as a key field in the era of the 4th Industrial Revolution, using traditional photogrammetry technology and image analysis technology in the information and communication field ( This is about a drone image analysis method using open source, including the step of performing SfM (Structure-from-Motion)-based 3D image analysis through the development and convergence of CV (Computer Vision).

Description

오픈소스를 활용한 드론 영상해석 방법{Drone image analysis method using open source}Drone image analysis method using open source}

본 발명은 오픈소스를 활용한 드론 영상해석 방법에 관한 것이다.The present invention relates to a drone image analysis method using open source.

최근 4차 산업혁명 시대의 공간정보는 사이버 인프라 역할을 하는 현실과 가상의 연결 매개체, 융·복합의 핵심으로서 증강현실(AR), 자율주행, 스마트건설(Smart-Construction) 및 스마트시티(Smart-City), 디지털트윈(DTS; Digital Twin Space) 구현 기반의 산업 간 기술 경계가 사라지고 융합되는 기술 혁명으로 과거 객체의 위치·속성을 중심으로 한 측량 및 지도 기반의‘단순공간정보’에서 공간 전체의 종합적인 상황을 인지하는‘융합공간정보’로 확대되고 있다. 공간정보 획득 방법은 인공위성 및 유인 항공기의 원격탐측 기술을 통해 수집 하였으나, 최근 4차 산업혁명의 핵심 분야로 주목받고 있는 UAV(Unmanned Aerial Vehicle; 드론, 무인항공기)를 이용한 공간정보 구축과 활용방안에 큰 관심이 모아지고 있다. UAV 는 플랫폼 및 탑재센서 관련기술의 향상, 다양화, 소형화 및 성능대비 유연한 시장 가격 형성 등으로 보급률이 점차 높아지고 있으며, 특히, UAV 관련 법 규제 완화 및 산업의 활성화 정책 추진과 여러 학회에 다양한 연구사례가 소개되는 등 UAV 응용이 학술분야는 물론 산업분야에 전방위 확산되고 있는 추세이다. UAV 기반 원격 탐측자료는 과거 원격탐측 기술로 획득한 영상의 해상도 제한으로 식별 불가능했던 자연환경 특성을 요구자의 조건에 따라 높은 시*공간적 고해상도 자료를 반복적으로 제공하여 경제성면에서도 기존 방식대비 유리하다. 아울러 UAV를 활용한 응용 연구는 식물생태분석, 지형공간정보구축, 환경 및 재난재해 모니터링, 고고학 등에 효율적으로 활용되는데 근거리 항공사진측량 플랫폼인 UAV로 취득된 영상은 다중영상입체시 기술(MVS; Multi View Stereopsis)과 같은 컴퓨터 영상 기술의 발전에 따라 여러 각도에서 촬영하여 취득한 영상을 중복시켜 3차원으로 모델화하고 포인트 클라우드(Point Cloud)를 생성할 수 있다. 하지만 UAV 영상해석시 고가의 외국산 상업용 소프트웨어를 통해 영상처리 및 해석, 데이터를 획득하기 때문에 이용자 입장에서 경제적인 부담이 상당하다. 따라서 고가의 상업용 소프트웨어 대체 시스템이 요망되므로, 비용이 들지 않는 오픈소스(Open-Source) 소프트웨어를 사용하면 미래 국내 UAV 및 공간정보 산업 분야의 발전에 효율적으로 활용될 전망이다. 공개된 소스코드를 이용하는 오픈소스 소프트웨어(OSS; Open Source Software)란, 다양한 기법의 알고리즘을 사용하는 소스코드들이 공개적으로 공유되어 특별한 제한없이 누구나 코드를 사용할 수 있는 소프트웨어다. 이것은 소스코드 접근 및 수정이 불가능한 독점 소프트웨어와는 대조적이며 자유 오픈소스 소프트웨어(FOSS;Free Open Source Software)를 통해 여러 개발자들의 협업에 의해 하나의 소프트웨어가 완성된다. 또한 사용자와 개발자들이 커뮤니티를 구축하여 피드백과 개선사항을 통해 소프트웨어의 안정성 및 업데이트가 가능하다. 비용이 들지 않아 경제성에 유리하고 자유롭게 수정·배포가 가능하기 때문에 사용자의 목적과 사용 방법에 따라 다채로운 결과 도출이 가능하고 여러 산업분야에 응용이 가능하여 확장성과 범용성이 우수하다. 본 연구의 목적은 UAV로 획득한 영상을 SfM 기반의 다양한 오픈소스 영상해석 툴과 상업용 영상해석 툴로 해석, 상호 비교·분석을 통해 상업용에 국한하지 않고 오픈소스를 활용한 UAV 영상해석의 효용성을 고찰하여 경제적 부담을 해소하고 공간정보산업 분야의 발전에 기여하는 것이다.Recently, spatial information in the era of the 4th Industrial Revolution is a medium for connecting reality and virtuality that serves as cyber infrastructure, and is the core of convergence and integration, and is used for augmented reality (AR), autonomous driving, smart-construction, and smart cities. City), a technological revolution based on the implementation of Digital Twin Space (DTS), where technological boundaries between industries are disappearing and converging, moving from 'simple spatial information' based on surveys and maps centered on the location and properties of past objects to the entire space. It is expanding into ‘converged spatial information’ that recognizes comprehensive situations. The method of acquiring spatial information was collected through remote sensing technology of satellites and manned aircraft, but the method of constructing and utilizing spatial information using UAV (Unmanned Aerial Vehicle), which has recently been attracting attention as a core field of the 4th Industrial Revolution, was used. There is great interest. The penetration rate of UAVs is gradually increasing due to improvements in platform and mounted sensor-related technologies, diversification, miniaturization, and flexible market price formation compared to performance. In particular, the relaxation of UAV-related laws and regulations, the promotion of industry revitalization policies, and the publication of various research cases in various academic societies. With the introduction of , UAV applications are spreading in all directions, not only in the academic field but also in the industrial field. UAV-based remote sensing data is advantageous compared to existing methods in terms of economic feasibility by repeatedly providing high spatial and temporal high-resolution data according to the requester's conditions for natural environment characteristics that were impossible to identify due to the resolution limitations of images acquired through remote sensing technology in the past. In addition, applied research using UAV is effectively used in plant ecology analysis, geospatial information construction, environmental and disaster disaster monitoring, and archeology. Images acquired by UAV, a short-range aerial photogrammetry platform, are obtained using multi-image stereoscopic technology (MVS; Multi). With the development of computer imaging technology such as View Stereopsis, images acquired by shooting from various angles can be overlapped to model them in three dimensions and create a point cloud. However, when interpreting UAV images, image processing, interpretation, and data are acquired through expensive foreign commercial software, which imposes a significant economic burden on the user. Therefore, as an alternative system to expensive commercial software is required, the use of cost-free open-source software is expected to be effectively utilized in the development of the domestic UAV and spatial information industries in the future. Open source software (OSS; Open Source Software) that uses publicly available source code is software in which source codes that use various algorithms are shared publicly, allowing anyone to use the code without any particular restrictions. This is in contrast to proprietary software, where access to and modification of the source code is impossible, and one software is completed through the collaboration of multiple developers through Free Open Source Software (FOSS). Additionally, users and developers can build a community to ensure software stability and updates through feedback and improvements. Since it costs nothing, it is economical and can be freely modified and distributed, so various results can be derived depending on the user's purpose and usage method, and it can be applied to various industrial fields, providing excellent scalability and versatility. The purpose of this study is to analyze images acquired by UAV with various SfM-based open source image analysis tools and commercial image analysis tools, and to examine the effectiveness of UAV image interpretation using open source, not limited to commercial, through mutual comparison and analysis. This will relieve the economic burden and contribute to the development of the spatial information industry.

1.2 연구동향1.2 Research trends

1.2.1 국내 연구 동향1.2.1 Domestic research trends

국내 다양한 산업분야의 UAV 기반 영상을 활용한 고밀도 측점군 생성 및 정사 영상제작에 대한 연구 동향은 다음과 같다. 이근환(2011)은 특징점 추출 알고리즘인 SURF(Speeded Up Robust Features)와 SIFT(Scale-Invariant Feature Transform)를 분석하여 소형 무인항공기에서 실시간으로 위치 추정이 가능한 영상정보 처리 시스템을 제시하였다. 김석구(2014)는 고정익 무인항공기를 활용하여 다양한 지역의 공간 정보를 획득 후처리 과정을 통해 UAV를 활용한 공간정보 시스템 구축 가능성을 검증하였다. 특히 여러 분야중 지적공간정보 분야의 실험을 통해 적용가능성을 연구하였다. 임수봉(2016)은 UAV를 이용하여 수치지도의 갱신 및 공간정보 구축 방안 연구를 수행, UAV항공사진측량의 기본이론과 기술을 정리하였다. 특히, 영상정합을 수행하는 SIFT기술과 번들조정을 통해 카메라 자세와 영상기하를 재구성하는 SfM 기술을 활용하여 다양한 지형의 3차원 포인트 클라우드를 생성, 공간정보 구축 및 DEM, 정사영상이 제작됨을 확인하였다. 박진환(2017)은 평지지역에 비해 상대적으로 정확도가 낮은 소규모 경사지역을 대상으로 VRS측량을 수행한 뒤 회전익 무인항공기 Inspire 1을 활용하여 취득한 영상을 SfM 기반 SIFT기법을 이용하여 자동으로 영상정합이 가능한 Agisoft사의 Photoscan 소프트웨어를 통해 정사영상 및 DEM을 제작, 공간정보의 신속한 갱신과 구축가능성을 평가하였다. 박창수(2018)는 무인 항공영상을 이용한 캠퍼스 시설물의 3차원 실감모델 생성을 통해 회전익 UAV를 이용하여 연구대상지의 수직 및 수평영상 데이터를 획득하고 지상기준점을 활용하여 항공삼각측량과 영상정합을 통해 3차원 실감모델을 제작하고 위치정확도를 검증하는 연구를 수행하였다.The research trends on high-density point group generation and orthoimage production using UAV-based images in various domestic industrial fields are as follows. Geun-Hwan Lee (2011) analyzed the feature point extraction algorithms SURF (Speeded Up Robust Features) and SIFT (Scale-Invariant Feature Transform) and presented an image information processing system that enables real-time location estimation in small unmanned aerial vehicles. Kim Seok-gu (2014) used a fixed-wing unmanned aerial vehicle to acquire spatial information of various regions and verified the possibility of building a spatial information system using UAV through a post-processing process. In particular, applicability was studied through experiments in the field of cadastral spatial information, among other fields. Subong Lim (2016) conducted research on updating digital maps and building spatial information using UAVs and summarized the basic theories and technologies of UAV aerial photogrammetry. In particular, it was confirmed that 3D point clouds of various terrains were created using SIFT technology, which performs image registration, and SfM technology, which reconstructs camera posture and image geometry through bundle adjustment, and that spatial information was constructed, DEM, and orthoimages were produced. . Jinhwan Park (2017) performed VRS surveys on small sloped areas with relatively low accuracy compared to flat areas, and then used the rotary wing unmanned aerial vehicle Inspire 1 to automatically match images using the SfM-based SIFT technique. Orthoimages and DEMs were produced using Agisoft's Photoscan software, and the feasibility of rapid updating and construction of spatial information was evaluated. Park Chang-soo (2018) acquired vertical and horizontal image data of the research site using a rotary-wing UAV through the creation of a 3D realistic model of campus facilities using unmanned aerial images, and used ground control points to obtain 3-D realistic models of campus facilities through aerial triangulation and image registration. A study was conducted to produce a 3D realistic model and verify location accuracy.

1.2.2 국·외 연구 동향1.2.2 National and international research trends

국외 UAV를 활용한 연구는 연구자가 속한 국가 특성상 평평하고 넓은 면적의 토지를 효율적으로 관리하기 위해 식생 및 환경 분야의 모니터링에서 시작되었다. Johnson et al(2003)은 미국 캘리포니아 지역의 포도밭에 고정익 소형 UAV를 이용하여 20cm급 고해상 이미지 영상을 취득, 식생·토양의 면적 비율을 계산하는 연구를 수행하였고, Lelong et al(2008)은 디지털카메라를 개조한 RGB(가시) 및 BG-NIR(근적외) 등 4개의 밴드로 영상을 획득 하여 정규화 식생지수(NDVI)를 계산하였다.Research using overseas UAVs began with monitoring of vegetation and environment in order to efficiently manage flat and large areas of land due to the characteristics of the country where the researcher belongs. Johnson et al (2003) conducted a study to calculate the area ratio of vegetation and soil by acquiring 20cm high-resolution images using a fixed-wing small UAV in a vineyard in California, USA, and Lelong et al (2008) used a digital camera The normalized vegetation index (NDVI) was calculated by acquiring images in four bands, including modified RGB (visible) and BG-NIR (near infrared).

최근 UAV와 컴퓨터 비젼 분야 기술 융·복합으로 연구범위가 확장되고 있는데 Furukawa et al(2010)은 UAV로 촬영한 영상에 SfM 기법을 활용하여 초기 포인트 클라우드를 생성 사각패치방식으로 다시 계산 후 MVS(Multi-View Stereo)기법을 이용하여 고밀도 포인트 클라우드를 생성하는 연구를 수행하였다. JOskar(2014)는 깃허브(Github)를 통해 개발된 오픈소스 소프트웨어의 품질 분석을 통해 소프트웨어의 특성 및 활용분야에 대한 연구동향을 광범위하게 고찰하고 향후 전망을 제시하였다. SBrocks(2016)은 보리밭에 디지털 카메라 2대를 10m 고도 위 설치하여 영상데이터를 획득, 상업용 소프트웨어 Agisoft사의 Photoscan 과 오픈소스 소프트웨어 VisualSFM을 통해 고밀도 포인트 클라우드를 추출 식물 성장 변동량을 2개월 단위로 모니터링하는 연구를 수행하였다. Simone Bianco(2018)은 디지털 카메라로 촬영한 여러 객채의 사진을 SfM 기반 다양한 오픈소스를 활용하여 파이프라인 및 알고리즘을 분석하고 3D 모델을 재현하는 연구를 수행하였다. 이에 본 연구는 기존 연구의 시사점을 바탕으로 UAV로 획득한 영상을 SfM 기반 오픈소스 및 상업용 영상 해석 툴과의 비교를 통해 UAV를 활용한 오픈소스 영상해석 툴의 효용성을 제시하였다.Recently, the scope of research has been expanded through the convergence of technologies in the UAV and computer vision fields. Furukawa et al (2010) used the SfM technique on images captured by UAV to generate an initial point cloud, recalculate it using the square patch method, and then A study was conducted to generate a high-density point cloud using the -View Stereo) technique. JOskar (2014) extensively reviewed research trends on the characteristics and application areas of software and presented future prospects through quality analysis of open source software developed through Github. SBrocks (2016) installed two digital cameras in a barley field at an altitude of 10 m to acquire image data, extracted high-density point clouds through commercial software Agisoft's Photoscan and open source software VisualSFM. A study to monitor plant growth fluctuations every two months. was carried out. Simone Bianco (2018) conducted a study to analyze pipelines and algorithms and reproduce 3D models using various SfM-based open sources using photos of various objects taken with a digital camera. Accordingly, based on the implications of existing research, this study presented the effectiveness of an open source image analysis tool using UAV by comparing images acquired by UAV with SfM-based open source and commercial image analysis tools.

1.3 연구범위 및 방법1.3 Research scope and method

본 연구의 공간적 범위는 인천광역시 연수구 송도동 에 위치한 케이슨24 카페 구조물 이며 시간적 범위는 2018년 4월 18일 오후 4시 20분 ~ 4시 37분이다. 기술적 범위로는 UAV를 활용한 무인항공사진측량 과정과 SfM 기반 다양한 오픈소스 영상해석 툴 및 상업용 영상해석 툴을 활용하여 공간정보를 구축하는 과정을 대상으로 한다. 연구 방법은 먼저 영상해석 단계별 파이프라인의 알고리즘을 고찰, 효율적인 공간정보 구축이 가능한 오픈소스 영상해석 툴을 선별하고 3차원 공간정보 획득이 가능한 연구 대상지를 선정한다. 이후 대상지 주변 GNSS 수신기를 통한 Network-RTK 측량을 통해 지상기준점(GCP) 및 검사점(CP)의 좌표를 관측하고 국토 지리정보원“무인비행장치 이용 공공측량 작업지침”을 준수하여 DJI사 보급형 회전익 UAV Phantom 4 프로 를 통해 대상지의 RGB 영상 데이터를 획득한다. 획득한 데이터를 SfM 기반 상업용 영상해석 툴(Pix4Dmapper)과 다양한 오픈소스 영상해석 툴을 활용하여 대상지 3차원 공간정보가 포함된 포인트 클라우드 형태의 3D 모델 재현 및 정사영상을 제작하여 상호간 재현성 및 왜곡성, 정확성 여부를 비교하여 UAV 기반 오픈소스를 활용한 영상해석의 효용성을 검토한다.The spatial scope of this study is the Caisson 24 Cafe structure located in Songdo-dong, Yeonsu-gu, Incheon, and the temporal scope is 4:20 PM to 4:37 PM on April 18, 2018. The technical scope covers the process of unmanned aerial photogrammetry using UAVs and the process of constructing spatial information using various open source image analysis tools and commercial image analysis tools based on SfM. The research method first examines the pipeline algorithm for each step of image analysis, selects an open source image analysis tool that can efficiently build spatial information, and selects a research site capable of acquiring 3D spatial information. Afterwards, the coordinates of the ground control point (GCP) and inspection point (CP) were observed through Network-RTK surveying through a GNSS receiver around the target site, and by complying with the National Geographic Information Institute's “Public Surveying Work Guidelines using Unmanned Aerial Vehicles”, DJI's popular rotary wing UAV Acquire RGB image data of the target site through Phantom 4 Pro. Using the acquired data, an SfM-based commercial image analysis tool (Pix4Dmapper) and various open source image analysis tools, reproduce a 3D model in the form of a point cloud containing 3D spatial information of the target site and produce an orthoimage to determine mutual reproducibility and distortion. We examine the effectiveness of image interpretation using UAV-based open source by comparing accuracy.

[1] 이근환, 2011, “소형무인기 위치추정에 적합한 영상정보 처리 시스템 개발”,석사학위논문, 건국대학교[1] Geun-Hwan Lee, 2011, “Development of an image information processing system suitable for small unmanned aerial vehicle location estimation”, Master’s thesis, Konkuk University [2] 김석구, 2014, “무인비행시스템을 이용한 공간정보 구축 및 활용에 관한 연구”, 박사학위논문, 목포대학교[2] Seok-gu Kim, 2014, “Study on construction and use of spatial information using unmanned flight system”, doctoral thesis, Mokpo National University [3] 임수봉, 2016, “무인항공사진측량을 이용한 공간정보 생성 및 정확도 평가”,박사학위논문, 충남대학교[3] Soobong Lim, 2016, “Generating spatial information and assessing accuracy using unmanned aerial photogrammetry”, PhD thesis, Chungnam National University [4] 박진환, 2017, “저사양 무인항공기를 이용한 소규모 경사지역의 정사영상 및 수치표고모델 제작”, 석사학위논문, 경북대학교[4] Jinhwan Park, 2017, “Production of orthoimagery and digital elevation model of small slope area using low-end unmanned aerial vehicle”, Master’s thesis, Kyungpook National University [5] 박창수, 2018, “무인항공영상을 이용한 캠퍼스 시설물의 3차원 실감모델 생성”, 석사학위논문, 한국교통대학교[5] Changsoo Park, 2018, “Creating 3D realistic models of campus facilities using unmanned aerial images”, Master’s thesis, Korea National University of Transportation

본 발명의 실시예들을 통해 해결하고자 하는 기술적 과제는, 본 발명은 오픈소스를 활용한 드론 영상해석에 관한 것으로서, 보다 구체적으로는 최근 건축·토목·안전진단 산업에서 활용중인 드론 자동비행을 통해 대상물의 3차원 위치정보 및 항공 영상으로 취득된 데이터를 오픈소스를 활용하여 3D 모델링을 수행하는 것을 목적으로 한다.The technical problem to be solved through embodiments of the present invention relates to drone image interpretation using open source, and more specifically, to analyze objects through automatic flight of drones, which are currently being used in the construction, civil engineering, and safety diagnosis industries. The purpose is to perform 3D modeling using open source data acquired from 3D location information and aerial images.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 기술적 과제를 해결하기 위한 오픈소스를 활용한 드론 영상해석 방법은, 오픈소스를 활용한 드론 영상해석 방법에 관한 것으로서, 보다 구체적으로 4차산업혁명시대의 핵심 분야로 주목받고 있는 드론을 활용하여 전통적인 사진측량(Photogrammetry) 기술과 정보통신 분야의 영상해석 기술(CV; Computer Vision)의 발전과 융합으로 SfM(Structure-from-Motion) 기반 3차원 영상해석을 진행하는 단계를 포함한다.The drone image analysis method using open source to solve the above technical challenges is about a drone image interpretation method using open source. More specifically, it is a method of analyzing drone images using open source. More specifically, it is a method of analyzing drone images using open source. It includes the stage of conducting SfM (Structure-from-Motion)-based 3D image analysis through the development and convergence of traditional photogrammetry technology and image analysis technology (CV; Computer Vision) in the information and communication field.

상기한 본 발명의 실시예들에 따르면, 오픈소스를 활용한 드론 영상해석 방법에 관한 것으로서, 보다 구체적으로는 최근 건축·토목·안전진단 산업에서 활용중인 드론 자동비행을 통해 대상물의 3차원 위치정보 및 항공 영상으로 취득된 데이터를 오픈소스를 활용하여 3D 모델링을 수행함으로써 드론 영상을 해석할 수 있는 효과를 보유한다.According to the embodiments of the present invention described above, it relates to a drone image analysis method using open source, and more specifically, three-dimensional location information of an object through automatic flight of a drone that has recently been used in the construction, civil engineering, and safety diagnosis industries. It has the effect of interpreting drone images by performing 3D modeling using open source data acquired from aerial images.

도 1은 본 발명의 일 실시예에 따른 연구흐름도를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 공선조건을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 공면조건을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 공액기하구속조건을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 SIFT(Scale Invariant Feature Transform) 기법을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 RANSAC 알고리즘을 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 RANSAC 알고리즘 수행 순서를 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 Structure-from-Motion 파이프라인을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 Structure-from-Motion 원리를 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 Network-RTK VRS 방식을 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 깃허브 페이지를 나타내는 도면이다.
1 is a diagram showing a research flow according to an embodiment of the present invention.
Figure 2 is a diagram showing collinear conditions according to an embodiment of the present invention.
Figure 3 is a diagram showing coplanar conditions according to an embodiment of the present invention.
Figure 4 is a diagram showing conjugate geometric constraints according to an embodiment of the present invention.
Figure 5 is a diagram showing a Scale Invariant Feature Transform (SIFT) technique according to an embodiment of the present invention.
Figure 6 is a diagram showing the RANSAC algorithm according to an embodiment of the present invention.
Figure 7 is a diagram showing the RANSAC algorithm execution sequence according to an embodiment of the present invention.
Figure 8 is a diagram showing a Structure-from-Motion pipeline according to an embodiment of the present invention.
Figure 9 is a diagram showing the Structure-from-Motion principle according to an embodiment of the present invention.
Figure 10 is a diagram showing the Network-RTK VRS method according to an embodiment of the present invention.
Figure 11 is a diagram showing a GitHub page according to an embodiment of the present invention.

제 2장 이론적 배경Chapter 2 Theoretical Background

2.1 사진측량 해석이론2.1 Photogrammetry interpretation theory

2.1.1 공선조건2.1.1 Collaborative selection conditions

공선조건(Collinearity condition)은 도 2와 같이 한 점에서 발현된 빛이 카메라 렌즈 중심을 통과하여 필름(CCD, CMOS)상에 피사 영상을 만들 때, ‘피사체 -카메라 렌즈 중심 - 영상’이 세 가지가 기하학적으로 직선관계가 되는 조건이다.The collinearity condition is as shown in Figure 2, when light emitted from one point passes through the center of the camera lens and creates a subject image on film (CCD, CMOS), there are three 'subject - center of camera lens - image' This is the condition where is geometrically a straight line relationship.

사진측량으로 표현하면 실세계 공간상 존재하는 임의점 A, 투영중심 L, 사진 촬영된 상점a 는 동일선상에 놓여야 한다.Expressed in photogrammetry, an arbitrary point A existing in real-world space, the projection center L, and the photographed store A must lie on the same line.

사진측량학은 위와 같은 공선조건식을 구성하여 식의 우변에는 A점의 지상좌표(XA,YA,ZA), 카메라 외부표정 6요소(Omega-Phi-Kappa, XL,YL,ZL) 총9개의 미지수를 구하고 필름상의 3차원 위치정보를 결정하는 것이다. 조건식을 해석하기 위해 지상 기준점(GCP; Ground Control Point)을 활용하여 필름상의 제점들이 기하조건을 만족하도록 카메라의 외부표정요소를 구하는데 최근에는 항공카메라에 GNSS 측량기와 관성항법장치(INS)를 조합시켜 촬영과 동시에 6개의 외부표정요소가 결정되므로 표정과정이 간략화 되었고 사진해석의 정확도도 향상되게 되었다. 도 3은 공선조건식을 미지수 9개에 대하여 선형화한 식이다.Photogrammetry constructs the above collinear condition equation, and on the right side of the equation, a total of 9 unknowns are included, including the ground coordinates of point A (XA, YA, ZA) and the 6 external camera expression elements (Omega-Phi-Kappa, XL, YL, ZL). Obtain and determine 3D location information on the film. In order to interpret conditional expressions, ground control points (GCPs) are used to obtain external expression elements of the camera so that points on the film satisfy geometric conditions. Recently, aerial cameras have been combined with GNSS surveyors and inertial navigation systems (INS). Since six external expression elements are determined at the same time as the photo is taken, the facial expression process is simplified and the accuracy of photo interpretation is improved. Figure 3 is a linearized equation of the collinearity condition for 9 unknowns.

2.1.2 공면조건2.1.2 Co-existence conditions

공면조건(Coplanarity)은 그림 2b와 같이 입체시 3차원 공간상에서 한 쌍의 중복된 두 장의 사진을 기본으로 두 개의 투영중심 노출점과 하나의 대상점, 그 대상점의 실세계 공간상의 피사체 점 및 상응되는 좌우 영상점 총 3개의 점이 동일 평면에 존재해야 한다는 조건으로 전통적인 사진측량기법이다.As shown in Figure 2b, the coplanarity condition is based on a pair of overlapping two photos in a three-dimensional space in stereoscopic vision, two projection center exposure points and one target point, and the subject point and corresponding target point in the real world space. It is a traditional photogrammetry technique with the condition that a total of three left and right image points must exist on the same plane.

도 3에서 3개의 벡터는 같은 면 상에 존재하므로 체적은 “0”이다. 따라서In Figure 3, the three vectors exist on the same plane, so the volume is “0”. thus

공면조건식은 다음과 같이 표현할 수 있다.The coplanar condition can be expressed as follows.

특히 위에 식을 백터 로 가정할 때, 다음 식 (2-4)와 같이 행렬간 곱의 형태로 정리할 수 있다.In particular, the vector to cool down on top Assuming, it can be organized in the form of a product between matrices as shown in the following equation (2-4).

2.1.3 공액기하구속조건2.1.3 Conjugate geometric constraints

공액기하구속조건은 전통적인 사진측량분야의 기본원리인 공면조건에서 구속조건 공액선을 추가한 컴퓨터 영상기술 분야에 구성된 영상해석 이론으로 주로 로봇게임, 자율 자동차 등의 시야 범위 내 실시간 장애물 회피 및 감지 또는 물체 인식 등 인지적 3차원 모델링에 활용 된다. 도 4는 한 쌍의 중복된 영상을 3차원 공간상의 서로 위치가 다른 두 지점에서 획득했을 때, 각각 영상A와 영상B의 매칭점(P, P') 사이의 기하학적 관계에서 나오는 공액선이 삼각 공액면 상에 존재하는 조건이다.The conjugate geometric constraint condition is an image analysis theory constructed in the field of computer imaging technology that adds a constraint conjugate line to the coplanar condition, which is the basic principle of the traditional photogrammetry field. It is mainly used for real-time obstacle avoidance and detection within the field of view for robot games, autonomous vehicles, etc. It is used for cognitive 3D modeling such as object recognition. Figure 4 shows that when a pair of overlapping images are acquired at two points at different positions in three-dimensional space, the tie line resulting from the geometric relationship between the matching points (P, P') of image A and image B, respectively, is triangular. This is a condition that exists on the conjugate surface.

3차원 공간상의 한 점 P가 영상 A에서는 p에 투영되고, 영상 B에서는 p'에 투영되면 두 카메라 원점을 잇는 선과 이미지 평면이 만나는 두 점 e, e'과 투영점을 잇는 직선 l, l'을 공액선(Epipolar line)이라 한다. 공액선은 3차원의 점 P와 두 카메라 원점을 잇는 평면 공액면(Epipolar Plane)과 이미지 평면과의 교선으로 볼 수 있다. 공액선들은 영상을 상호표정한 후에 결정할 수 있다.If a point P in three-dimensional space is projected to p in image A and to p' in image B, then the line connecting the two camera origins and the image plane meet the two points e, e' and the straight line l, l' connecting the projection point. is called the epipolar line. The conjugate line can be viewed as the intersection of the image plane and the epipolar plane connecting the three-dimensional point P and the origin of the two cameras. The conjugate lines can be determined after cross-representing the images.

2.2 영상해석 기술2.2 Image interpretation technology

2.2.1 SIFT(Scale Invariant Feature Transform) 기법2.2.1 SIFT (Scale Invariant Feature Transform) technique

SIFT는 2004년 캐나다 University of British Columbia(UBC) 대학의 Lowe 교수에 의해 고안된 영상처리 알고리즘으로 이미지의 크기(Scale), 회전(Rotation)에 불변하는 특징이 되는 점들을 추출한다. 추출된 특징점들은 무인항공기 영상처리를 위한 AAT(Automatic Aerial Triangulation)과정의 기초자료가 된다. 또한 알고리즘을 통해 변환되는 특징점은 영상의 명암 및 카메라의 촬영 위치 변화에도 영향을 받지 않기 때문에 무인항공기 영상해석에 적합한 알고리즘 기술이며 신뢰성도 높아 AAT에 광범위하게 활용되고 있다. SIFT를 이용한 특징점 추출은 4가지 단계로 수행된다. 먼저 1단계는 특징점 추출단계로 다양한 스케일에서 정확한 특징점을 선택하기 위해 예비 특징점들을 찾은 다음, 안정성을 검사하여 정확한 특징점을 선별한다. 2단계는 특징점의 위치 결정 및 필터링 단계로 1단계에서 선별된 특징점들 중 명암비가 낮거나 코너(모서리)에 위치한 불안정한 특징점들을 제거한다. 이후 특징점을 Taylor 1·2차 급수 전개를 이용하여 연속공간에 위치시킨다. 3단계는 특징점의 방향을 할당하는 단계로 영상의 회전변화를 검출하기 위해 특징점의 벡터량을 구한다. 마지막 4단계에서는 특징점을 서술하는 단계로 특징점 주변에 있는 벡터 값들의 방향을 구한다. 즉, SIFT의 4단계에서 1단계와 2단계에서는 특징점을 추출, 선별하고 3단계와 4단계에서는 객체의 형태나 특성정보를 추출하기 위해 서술자(Descriptor)를 생성하는 과정으로 선택된 특징점들을 중심으로 주변 영역의 경사정보(Gradient)를 계산하여 방향성분을 얻고, 그 중심으로 관심영역을 재설정하여 서술자를 생성한다. 도 5는 1~4단계 과정을 거친 SIFT 기법으로 추출한 특징점이다.SIFT is an image processing algorithm designed by Professor Lowe at the University of British Columbia (UBC) in Canada in 2004 to extract characteristic points that are invariant to the scale and rotation of the image. The extracted feature points become basic data for the AAT (Automatic Aerial Triangulation) process for unmanned aerial vehicle image processing. In addition, the feature points converted through the algorithm are not affected by the brightness of the image or changes in the camera's shooting position, so it is an algorithm technology suitable for unmanned aerial vehicle image analysis and is widely used in AAT due to its high reliability. Feature point extraction using SIFT is performed in four steps. First, step 1 is the feature point extraction step, where preliminary feature points are found to select accurate feature points at various scales, and then stability is checked to select accurate feature points. The second stage is the location determination and filtering stage of the feature points, and among the feature points selected in the first step, unstable feature points with low contrast ratio or located at corners are removed. Afterwards, the feature points are located in continuous space using Taylor first and second order series expansion. Step 3 is the step of assigning the direction of the feature point and finding the vector quantity of the feature point to detect rotation changes in the image. The final fourth step is to describe the feature point and find the direction of the vector values around the feature point. In other words, in the 4 stages of SIFT, the first and second stages extract and select feature points, and the third and fourth stages are the process of creating a descriptor to extract the shape or characteristic information of the object. The surrounding area is centered around the selected feature points. The gradient information of the area is calculated to obtain the direction component, and the area of interest is reset to its center to create a descriptor. Figure 5 shows feature points extracted using the SIFT technique through steps 1 to 4.

2.2.2 RANSAC(Random Sample Consensus) 기법2.2.2 RANSAC (Random Sample Consensus) technique

RANSAC 알고리즘은 도 6과 같이 다수의 특징점 데이터를 바탕으로 인라이어(Inlier)와 아웃라이어(Outlier)로 나누고 측정 노이즈가 심한 원본 데이터로부터 모델 파라미터를 추정하는 최적의 특징점 선별 알고리즘이다.The RANSAC algorithm is an optimal feature point selection algorithm that divides multiple feature point data into inliers and outliers as shown in Figure 6 and estimates model parameters from original data with severe measurement noise.

샘플링 과정에서 전체 대응점 후보들로부터 N개의 샘플 대응점을 획득, 참 값으로 보고 Homography Matrix를 예측하여 옳은지 판단한다. 만약 참 값이 아닐 경우 위의 과정을 반복적으로 계산하여 최적의 결과를 도출한다. 이 과정에서 큰 오차를 가지는 아웃라이어가 자동으로 제거된다. RANSAC 알고리즘의 수행 순서는 도 7과 같다.During the sampling process, N sample corresponding points are obtained from all corresponding point candidates, viewed as true values, and the Homography Matrix is predicted to determine whether it is correct. If it is not a true value, the above process is repeatedly calculated to derive the optimal result. In this process, outliers with large errors are automatically removed. The execution sequence of the RANSAC algorithm is shown in Figure 7.

① : 전체 특징점 후보들로부터 N개의 특징점 샘플링①: Sampling N feature points from all feature point candidates

② : 샘플링된 특징점을 참 값으로 가정하고 호모그래피를 예측②: Predict homography by assuming sampled feature points as true values

③ : 예측된 호모그래피 평가③: Predicted homography evaluation

④ : 참 값이 아닐 경우 ①-③번 과정 반복④: If it is not a true value, repeat steps ①-③

2.2.2 SfM(Structure-from-Motion) 기법2.2.2 SfM (Structure-from-Motion) technique

전통적인 사진측량기술과 컴퓨터 정보통신 분야의 영상해석 기술을 융합하여 해석한 단계별 영상해석 공정별 내용을 나타낸 파이프라인 흐름도표는 도 8과 같다.The pipeline flow chart showing the contents of each step-by-step image analysis process analyzed by combining traditional photogrammetry technology and image analysis technology in the computer information and communication field is shown in Figure 8.

SfM 기법은 전통적인 사진측량과 다르게 외부표정요소 또는 지상기준점 좌표가 없이도 카메라의 자세 및 영상기하를 재구성한다. 도 9와 같이 다양한 각도에서 카메라의 동적 촬영으로 획득한 다수의 중복사진에 저장된 EXIF 메타정보로부터 카메라 종류, 영상크기, 초점거리, 렌즈검정 등의 정보를 취득하여 렌즈 왜곡 및 주점 보정된 영상을 입력 자료로 활용한다. 또한 영상정합을 위한 특징점을 추출하고 특징점간의 정합, 모션추정 기술 등을 통해 3차원 형상과 카메라의 위치관계를 동시에 복원시켜 3차원 형상을 포인트 클라우드 점군 형태로 피사체를 재현하는 최신 영상해석 기법이다.Unlike traditional photogrammetry, the SfM technique reconstructs the camera's posture and image geometry without external expression elements or ground reference point coordinates. As shown in Figure 9, information such as camera type, image size, focal length, lens calibration, etc. is acquired from EXIF meta information stored in multiple duplicate photos obtained by dynamic shooting of the camera at various angles, and input an image corrected for lens distortion and main point. Use it as data. In addition, it is the latest image analysis technique that reproduces the subject in the form of a point cloud point cloud by extracting feature points for image registration and simultaneously restoring the positional relationship between the 3D shape and the camera through matching between feature points and motion estimation technology.

2.3 Network-RTK(Real Time Kinematic)2.3 Network-RTK (Real Time Kinematic)

Network-RTK(Real Time Kinematic)는 실시간 상대측위 기법으로 기준국과 이동국 간 기선거리에 관계없이 장기선에서 높은 측위 정확도를 유지하여 정밀한 위치 결정이 가능하다. 현재 Network-RTK의 시스템에서 가상기준점 측위 방식은 격자보정계수 형식, 가상관측값 방식(VRS) FKP(면보정계수) 등 3가지 방식이 있다. 우리나라의 경우 주로 VRS(Virtual Reference Station) 방식을 활용한다. Network-RTK 측위 방식에서 VRS는 도 10과 같이 네트워크 내 임이의 이동국에 인접한 지점에 가상의 기준국 설정하고 RTK를 통해 이동국의 정확한 위치를 결정하는 방식이다. 특히 VRS는 이동국과 기지국에 각각 1대씩 총 2대의 수신기를 필요로 하던 기존 Network-RTK GPS측량 방식에서 국토지리정보원의 상시관측소 데이터를 사용함으로써 1대의 수신기와 블루투스 통신이 가능한 1대의 기기로 GPS 측량이 가능하다는 장점이 있다.Network-RTK (Real Time Kinematic) is a real-time relative positioning technique that maintains high positioning accuracy over long-term lines regardless of the baseline distance between the reference station and the mobile station, enabling precise positioning. Currently, in Network-RTK's system, there are three methods for positioning virtual reference points: grid correction coefficient type, virtual observed value type (VRS), and FKP (plane correction coefficient). In Korea, the VRS (Virtual Reference Station) method is mainly used. In the Network-RTK positioning method, VRS is a method of setting a virtual reference station at a point adjacent to a random mobile station in the network and determining the exact location of the mobile station through RTK, as shown in Figure 10. In particular, VRS uses the existing Network-RTK GPS surveying method, which required a total of two receivers, one each for the mobile station and one for the base station, by using data from the National Geographic Information Institute's permanent observatory, allowing GPS surveying with one receiver and one device capable of Bluetooth communication. There is an advantage to this being possible.

2.4 오픈소스 소프트웨어 및 깃허브2.4 Open source software and GitHub

오픈소스 소프트웨어란 소프트웨어를 개발하는데 필요한 소스코드가 특별한 제한없이 모두에게 공개된 소프트웨어를 의미한다. 소스코드란 이진수 형태의 컴퓨터 프로그램 코드를 사람이 읽고 해석할 수 있는 프로그래밍 언어로 기술한 글이다.Open source software refers to software in which the source code required to develop software is open to everyone without any particular restrictions. Source code is a text that describes computer program code in binary form in a programming language that can be read and interpreted by humans.

개발자들은 오픈소스 소프트웨어 플랫폼에서 공개된 소스코드를 바탕으로 새로운 소프트웨어를 개발하거나, 기존 소프트웨어에 새로운 기능을 추가하며, 베타버전의 소프트웨어에서 버그를 발견하고 수정한다. 이 과정에서 소스코드를 읽고 수정할 수 있는 권한은 모든 사람들에게 주어지며 이에 대한 최종적인 결과물 또한 어느 한 사람에게 귀속되지 않고 자유롭게 배포된다. 깃허브는 도 11과 같이 버전관 리시스템중 하나인 깃(Git)을 온라인상에서 구현한 세계에서 가장 많은 개발자가 이용하는 오픈소스 소프트웨어 플랫폼이다. 깃허브 상의 개발자들은 각각 자신의 활동 내역이 기록되는 개인 페이지를 갖게 되는데, 이는 일종의 포트폴리오가 되며 다른 개발자가 자유롭게 열람이 가능하다. 특히 작업 과정시 필요한 다른 개발자들과의 의사소통을 위해 SNS 및 MSN 메신저 등 다양한 커뮤니케이션 기능을 갖추었다. 또한 즐겨찾기 기능을 통해 관심도가 높은 프로젝트의 진행 사항 알림을 받을 수 있고 프로젝트의 전반적인 정보를 직관적으로 파악할 수 있는 다양한 수치화, 시각화 정보를 제공한다.Developers develop new software based on source code released on open source software platforms, add new features to existing software, and discover and fix bugs in beta versions of software. During this process, everyone is given the right to read and modify the source code, and the final result is also freely distributed without belonging to any one person. As shown in Figure 11, GitHub is an open source software platform used by the largest number of developers in the world that implements Git, one of the version management systems, online. Developers on GitHub each have a personal page where their activities are recorded, which becomes a kind of portfolio and can be freely viewed by other developers. In particular, it is equipped with various communication functions such as SNS and MSN messenger to communicate with other developers necessary during the work process. Additionally, through the favorites function, you can receive notifications about the progress of projects of high interest, and it provides various quantification and visualization information that allows you to intuitively understand the overall information of the project.

제 3장. 데이터 관측 및 영상해석Chapter 3. Data observation and image analysis

3.1 UAV 촬영 비행계획수립3.1 UAV filming flight plan establishment

촬영 대상지는 그림 3.1과 같이 인천광역시 연수구 송도동에 위치한 (송도동12-8번지) 케이슨24 카페를 대상으로 촬영하기 앞서 Pix4Dmapper 어플리케이션을 활용하여 촬영동선 설정 등의 계획을 수립한다. 연수구 송도동과 같은 신도시의 경우 고층건물 및 빌딩들이 많아 UAV의 이착륙지점 선정 및 비행관제를 위한 시야확보와 지상기준점 관측을 위한 양호한 전파수신 장소를 선정했다. 또한 대상지 특성상 유동인구가 많은 점을 고려하여 비상시 안전착륙지점을 탐색하고 날씨에 영향을 받는 UAV 특성상 비, 바람의 영향이 없는 시점으로 UAV 촬영 비행계획을 수립하였다.As shown in Figure 3.1, the shooting location is Cason 24 Cafe located in Songdo-dong, Yeonsu-gu, Incheon (12-8 Songdo-dong). Prior to shooting, a plan for setting the shooting route is established using the Pix4Dmapper application. In the case of new cities such as Songdo-dong, Yeonsu-gu, there are many high-rise buildings and buildings, so a place with good radio reception was selected to secure visibility for UAV takeoff and landing points and flight control, and to observe ground reference points. In addition, considering the fact that there is a large floating population due to the nature of the target site, a safe landing point in case of emergency was searched and a UAV filming flight plan was established at a time when there was no influence of rain or wind due to the nature of UAVs being affected by the weather.

3.1 연구대상지(케이슨24)3.1 Research site (Caisson 24)

또한 UAV 영상촬영전 그림 32와 같이 국토교통부와 한국드론협회가 공동으로In addition, as shown in Figure 32 before UAV video shooting, the Ministry of Land, Infrastructure and Transport and the Korea Drone Association jointly conducted

개발한 Ready to fly 어플리케이션을 활용하여 전국 비행금지구역, 관제권 등 공역Using the developed Ready to fly application, airspace such as nationwide no-fly zones and air traffic control areas

현황 및 기상정보, 일출·일몰시각, 지역별 비행허가 소관기관과 연락처등을 조회하Check status and weather information, sunrise and sunset times, regional flight permit authorities and contact information, etc.

여 UAV 비행에 필요한 정보들을 확인한다. 연구대상지인 인천광역시 연수구 송도Check the information necessary for UAV flight. Study site: Songdo, Yeonsu-gu, Incheon Metropolitan City

동의 경우 그림 32와 같이 비행금지구역에 해당되지 않음을 확인하였다.In the case of consent, it was confirmed that it does not fall into a no-fly zone as shown in Figure 32.

32 지상기준점 측량 및 장비 제원32 Ground control point survey and equipment specifications

먼저 UAV 항공삼각측량을 통해 세부도화 작업 및 3차원 좌표 취득에 필요한 항First, the terms necessary for detailed drawing work and 3D coordinate acquisition through UAV aerial triangulation

공사진에서 육안으로 식별이 가능한 위치에 대공표지를 설치해야 하는데 본 연구에Anti-aircraft beacons must be installed in locations that can be visually identified from construction photos, but this study

서는 그림 33과 같이 가로 30cm × 세로 30cm 정사각형 크기의 아크릴판에 검정As shown in Figure 33, a black acrylic plate is sized 30 cm wide

색과 흰색을 대비한 원형, 십자형의 종이를 부착하여 제작하였다.It was produced by attaching circular and cross-shaped paper in contrasting colors and white.

33 대공표지33 anti-aircraft sign

제작 후 대상지 주변 양호한 전파 수신의 개방된 지점 및 UAV 영상촬영시 가시After production, open points with good radio wave reception around the target site and visibility during UAV video shooting

성이 우수한 위치에 균등하게 분포하여 설치하였다. 특히, 정확한 좌표 및 검사점의They were evenly distributed and installed in locations with excellent performance. In particular, precise coordinates and checkpoints

실세계 좌표성과를 구하기 위해 지상기준점 위치가 변화 및 훼손되지 않도록 주의To obtain real-world coordinate results, be careful not to change or damage the ground control point location.

하였다. 그림 34는 GNSS 측량을 수행하여 관측한 지상기준점 위치이다.did. Figure 34 is the location of the ground control point observed by performing GNSS surveying.

34 지상기준점 위치도34 Ground reference point location map

정사영상제작 및 3D 모델 재현시 활용할 지상기준점 좌표 및 검사점의 실세계The real world of ground reference point coordinates and inspection points to be used when producing orthophotos and reproducing 3D models.

좌표성과를 구하기 위한 장비로는 그림 35의 Trimble사 GNSS 장비 R8 수신기와The equipment used to obtain coordinate results is Trimble's GNSS equipment R8 receiver as shown in Figure 35.

TSC3 컨트롤러를 사용하였고 좌표계는 KGD2002의 지오이드 모델 KNGeoid14로 중TSC3 controller was used, and the coordinate system was KGD2002's geoid model KNGeoid14.

부원점을 도 원점으로 한 지도투영좌표로 선정, Network-RTK 방식의 VRS 측량방Selected as map projection coordinates with suborigin as the origin, VRS survey room using Network-RTK method

법을 활용하여 12대의 위성개수확인 후 수신기 높이를 2m로 이격, 고정시킨 후 10After confirming the number of 12 satellites using the law, the receiver height was spaced and fixed at 2m, and then 10

초간 포인트 측정을 통해 지상기준점 좌표 및 검사점의 실세계 좌표를 획득하였다.The ground reference point coordinates and the real-world coordinates of the inspection point were obtained through point measurements in seconds.

검사점은 영상에서 육안 식별이 명확한 인공시설물이나 자연지물의 모서리점등을The inspection point is the corner light of an artificial facility or natural feature that is clearly visible to the naked eye in the image.

관측하여 좌표를 결정한다. 그림 35는 Trimble사 R8 수신기와 TSC3 컨트롤러 및Observe and determine coordinates. Figure 35 shows Trimble's R8 receiver, TSC3 controller, and

장비 사용 모습이다.This is how the equipment is used.

그림 35 R8수신기 설치 모습 및 관측전경Figure 35 R8 receiver installation and observation view

아래 표 31은 GNSS R8 수신기의 제원을 나타내는 표이다.Table 31 below shows the specifications of the GNSS R8 receiver.

아래 표 32는 Trimble TSC3 컨트롤러의 제원을 나타내는 표이다.Table 32 below shows the specifications of the Trimble TSC3 controller.

33 UAV 촬영 및 장비제원33 UAV filming and equipment specifications

대상지 촬영장비로는 DJI사의 보급형 회전익 UAV Phantom 4 프로를 사용하여DJI's entry-level rotary wing UAV Phantom 4 Pro was used as filming equipment for the target area.

2018년 4월 18일 오후 4시 20분 ~ 4시 37분 동안, 국토지리정보원 무인비행장치 이From 4:20 to 4:37 p.m. on April 18, 2018, the National Geographic Information Institute's unmanned aerial vehicle

용 공공측량 작업지침을 준수하여 비행고도 60m 촬영방향 종횡 80%의 중복도를 부In compliance with the public survey work guidelines for use, an overlap of 80% in the vertical and horizontal directions was applied at a flight altitude of 60 m.

여한 자동비행을 통해 총 110장의 RGB 영상데이터를 획득하였다. 그림 36은 데이A total of 110 pieces of RGB image data were acquired through automatic flight. Figure 36 is

터 획득을 위해 사용한 UAV 장비 모습이다.This is the UAV equipment used to acquire the site.

36 UAV Phantom 4 프로36 UAV Phantom 4 Pro

아래 표 33는 Phantom 4 프로 의 제원을 나타낸 표이다.Table 33 below shows the specifications of the Phantom 4 Pro.

34 UAV를 활용한 영상촬영 및 영상 처리34 Video shooting and image processing using UAV

341 지상기준점 및 검사점 관측341 Ground control and checkpoint observations

정사영상제작 및 3D 모델 재현시 활용할 지상기준점 및 검사점을 획득하기 위해To obtain ground reference points and inspection points to be used when producing orthophotos and reproducing 3D models.

정밀측량을 수행한 결과 표 34와 같이 3점의 지상기준점과 3점의 검사점을 획득하As a result of performing a precision survey, 3 ground reference points and 3 inspection points were obtained as shown in Table 34.

였다. 획득한 3점의 지상기준점을 상업용 영상해석 툴 및 오픈소스 영상해석 툴에It was. The three acquired ground reference points are used in commercial image analysis tools and open source image analysis tools.

입력, 해석하여 정사영상 및 3D 모델을 구현하였다.Input and analysis were performed to create orthoimages and 3D models.

342 상업용 영상해석 툴 (Pix4Dmapper)342 Commercial image analysis tool (Pix4Dmapper)

현재 영상해석을 지원하는 소프트웨어 중 범용적으로 사용되고 있는 소프트웨어Among the software that currently supports image analysis, it is a commonly used software.

로는 Agisoft사 Photoscan, Bentely사 Context Capture 등이 있다. 그 중 스위스Examples include Photoscan from Agisoft and Context Capture from Bentely. Among them, Switzerland

Pix4D사의 UAV 영상해석 후처리 프로그램인 Pix4Dmapper는 SfM 기반 영상해석 툴Pix4Dmapper, Pix4D's UAV image analysis post-processing program, is an SfM-based image analysis tool.

로 그래픽 사용자 인터페이스 (GUI; Graphic User Interface)을 통해 사용자가 편리User convenience through a graphical user interface (GUI)

하게 이용할 수 있는 가시화된 인터페이스 환경을 제공한다. 또한 프로그램 내 카It provides a visualized interface environment that can be easily used. Also, within the program

메라 캘리브레이션(Calibration)을 통해 렌즈 왜곡량을 보정해주기 때문에 별도의 카Because lens distortion is corrected through camera calibration, a separate camera is required.

메라 검정 과정 생략이 가능하다. 아울러 카메라 기종별로 보정모델을 내장으로 지It is possible to skip the Mera test process. In addition, each camera model has a built-in correction model.

원한다. 영상처리 입력시 촬영점의 위치가 자동으로 가시화되고 접속점(Tie-points)want. When entering image processing, the location of the shooting point is automatically visualized and tie-points are displayed.

및 GCP 입력과정과 포토태깅(Photo-Tagging)과정이 편리하다. 영상해석시 먼저And the GCP input process and photo-tagging process are convenient. When interpreting a video, first

UAV로 획득한 110장의 RGB 이미지를 로드하고 중부좌표계(Korea 2000/Central BeltLoad 110 RGB images acquired by UAV and use them in the central coordinate system (Korea 2000/Central Belt)

2010 : EPSG 5186)기반 3개의 기준점을 입력, 기준점 위치를 이미지에 특정하여 체2010: Enter three reference points based on EPSG 5186 and specify the location of the reference point in the image.

크하였다. 실세계 좌표 입력 후‘Point Cloud and Mesh’항목을 통해 그림 37과 같It was loud. After entering the real world coordinates, go to the ‘Point Cloud and Mesh’ item as shown in Figure 37.

이 포인트 클라우드를 생성하였다. 이후‘DSM, Orthomosaic and Index’를 실행하This point cloud was created. Afterwards, run ‘DSM, Orthomosaic and Index’

여 그림 38과 같이 3차원 공간정보를 포함한 3D 모델을 재현하고 그림 39~10 과Reproduce the 3D model including 3D spatial information as shown in Figure 38 and Figure 39-10.

같이 각각 DSM 및 정사영상을 제작하였다.Together, DSM and orthoimages were produced, respectively.

343 오픈소스(WebODM) 영상해석 툴343 Open source (WebODM) video analysis tool

FOSS4G의 프로젝트에 의해 개발된 오픈드론맵(OpenDroneMap)은 드론 영상해석OpenDroneMap, developed by FOSS4G's project, is a drone video analysis tool.

오픈소스 툴킷이다. Linux 기반의 ODM, 개발자용 API를 제공하는 Node-ODM, 웹It is an open source toolkit. Linux-based ODM, Node-ODM providing API for developers, web

브라우져 기반 WebODM을 지원하고 상업용 해석툴과 동일한 과정으로 포인트 클Supports browser-based WebODM and points click through the same process as commercial analysis tools.

라우드 및 Mesh 작업, DSM, DEM, 정사영상(Orthophoto)까지 추출 가능하다. 툴킷Loud and mesh work, DSM, DEM, and even orthophoto can be extracted. toolkit

다운로드는 2008년 설립되어 2015년 기준으로 1200만명의 사용자와 3030만개의 저Download was founded in 2008 and has 12 million users and 30.3 million posts as of 2015.

장소를 운영하는 전문호스팅 업체인 깃허브(Github)에서 소스코드를 다운 받고 실행Download the source code from Github, a professional hosting company that operates the venue, and run it.

시 필요한 응용프로그램 도커(Docker), 파이썬(Python), 깃(Git)을 설치한다. 이후 도Install the required applications Docker, Python, and Git. Afterwards

커의 확장프로그램인 Docker Quickstart Terminal을 실행시켜 그림 311과 같이 설Run the Docker Quickstart Terminal, an extension of Docker, and set it up as shown in Figure 311.

치 명령어 입력 후 실행파일을 빌드 한다.After entering the command, build the executable file.

빌드 후 19216899100:8000 호스팅 주소를 부여받아 웹브라우저를 통해 접속하여After building, receive the hosting address 19216899100:8000 and access it through a web browser.

대상지 RGB 데이터를 처리 그림 312~13과 같이 포인트 클라우드를 생성하였다.Processing the target site RGB data, a point cloud was created as shown in Figures 312-13.

포인트 클라우드 생성이후 지상기준점을 이용하여 모델좌표로부터 지상좌표로 실세계 좌표변환을 수행하는 절대좌표 과정을 수행, 그림 314와 같이 지상기준점 타켓이 촬영된 UAV 지상기준점 사진의 픽셀 X , 픽셀 Y값을 추출하여 C언어로 작성된 한국 좌표계 EPSG 코드의 PROJ4 라이브러리를 변수를 입력하여 그림 315~16과 같이 DSM 및 정사영상을 제작하였다.After creating a point cloud, perform an absolute coordinate process that performs real-world coordinate conversion from model coordinates to ground coordinates using the ground control point, and extract pixel By inputting the variables of the PROJ4 library of the Korean coordinate system EPSG code written in C language, DSM and orthoimages were produced as shown in Figures 315 to 16.

344 오픈소스(COLMAP) 영상해석 툴344 Open source (COLMAP) image analysis tool

Github에서 소스코드를 다운로드 할 수 있는 오픈소스 소프트웨어인 COLMAPCOLMAP is an open source software whose source code can be downloaded from Github.

은 그래픽 명령 행 인터페이스가 있는 범용 SfM 및 MVS의 파이프라인이다. 영상is a general-purpose SfM and MVS pipeline with a graphical command line interface. video

내 Sift기법을 통해 그림 317~18과 같이 특징점을 추출하고 추출된 특징점의 이미Through my Sift technique, I extract feature points as shown in Figures 317-18 and image the extracted feature points.

지 매칭을 통해 그림 319의 3D 모델 재현을 위한 포인트 클라우드를 구성한다. 이Through geo-matching, a point cloud is constructed to reproduce the 3D model in Figure 319. this

후 고밀도화 작업(CMVS/PMVS)을 통해 그림 320과 같이 3D 모델을 재구성하여 고Afterwards, the 3D model is reconstructed through densification (CMVS/PMVS) as shown in Figure 320.

밀도(Dense) 포인트 클라우드를 생성한다. 특히 COLMAP의 사용자 인터페이스는 대Create a dense point cloud. In particular, COLMAP's user interface is

부분의 사용 가능한 기능에 대한 엑세스를 제공하고 실시간으로 재구성 프로세스를Provides access to all available features and assists in the reconfiguration process in real time.

시각화하며 GUI를 시작하려면 미리 빌드된 패키지를 설치 후 윈도우 MS-DOS 명령To visualize and start the GUI, install the prebuilt package and run the Windows MS-DOS command

창에 ‘COLMAP’을 입력하여 실행, 이미지를 로드한다.Enter ‘COLMAP’ in the window and run it to load the image.

SfM 기반 MVS 고밀도 포인트 클라우드를 생성하였으나 공간정보가 없는 이미지An SfM-based MVS high-density point cloud was created, but the image had no spatial information.

를 실제 위치에 매칭하기 위한 작업인 지오레퍼런싱 기능은 제공하지 않아 3차원The georeferencing function, which is a task for matching to the actual location, is not provided, so 3D

공간정보 획득이 불가하였다.It was impossible to obtain spatial information.

345 오픈소스(VisualSFM + CMPMVS) 영상해석 툴345 open source (VisualSFM + CMPMVS) video analysis tool

VisualSFM 또한 COLMAP과 동일하게 Sift기법 SfM 기반 이미지를 사용하여 3차Like COLMAP, VisualSFM also uses SfM-based images using the Sift technique to create 3D images.

원으로 이미지 객체를 재구성하는 GUI 지원 영상해석 툴이다. 영상 내 특징점 추출It is a GUI-supported image analysis tool that reconstructs image objects into circles. Extract feature points from video

부터 영상 간 특징점 매칭, 3D 재현을 위한 상호표정 및 번들(Bundle)조정, 고밀도Feature point matching between images, mutual expression and bundle adjustment for 3D reproduction, high density

화 작업(PMVS/PMVS2 또는 CMVS) 등을 1개의 패키지로 통합 구성하여 대상체의 3By integrating the image processing (PMVS/PMVS2 or CMVS) into one package, the target's 3

차원 모델링 재현이 가능한 오픈소스이다. 그림 321~22은 동일한 과정을 통해 포인It is an open source that allows dimensional modeling to be reproduced. Figures 321-22 show points through the same process.

트 클라우드를 획득한 과정이다.This is the process of acquiring the cloud.

VisualSFM 또한 COLMAP과 동일하게 지오레퍼런싱 기능을 제공하지 않는다. 하VisualSFM also does not provide the same georeferencing function as COLMAP. under

지만 DEM 및 정사영상제작 기능을 탑재한 3rd party program인 CMPMVS를 통해However, through CMPMVS, a 3rd party program equipped with DEM and orthophoto production functions,

DEM 및 정사영상을 제작하였다. 특히, CMPMVS는 GUI를 제공하고 있지 않아DEM and orthoimages were produced. In particular, CMPMVS does not provide a GUI.

MS-DOS기반으로 실행 VisualSFM으로 해석한 데이터 및 소스코드를 입력하여 작업Runs based on MS-DOS and works by inputting data and source code interpreted with VisualSFM

을 수행하였다. 그림 323은 VisualSFM과 CMPMVS를 조합하여 생성한 데이터다.was carried out. Figure 323 is data generated by combining VisualSFM and CMPMVS.

346 오픈소스(Meshroom) 영상해석 툴346 Open source (Meshroom) video analysis tool

Meshroom은 AliceVision Photogrammetric Computer Vision 프레임 워크에 기반한Meshroom is based on the AliceVision Photogrammetric Computer Vision framework.

3D 재구성 오픈소스 소프트웨어이다. SfM의 전처리 과정의 포인트 클라우드 및 3DIt is a 3D reconstruction open source software. Point clouds and 3D preprocessing in SfM

매쉬, 텍스쳐 까지 제공하며 DSM 및 DEM 정사영상제작은 불가능하다. 그림 324는Mesh and texture are provided, and DSM and DEM orthophoto production is not possible. Figure 324 shows

Meshroom으로 획득한 포인트 클라우드이다.This is a point cloud obtained with Meshroom.

특히, Meshroom 은 Sift방식을 포함한 여러 영상해석기법들을 제공하고 있어 사In particular, Meshroom provides several image analysis techniques, including the Sift method, making it easy to use.

용자의 설정에 따라 다양한 3D 재현 결과물 도출이 가능하다.Depending on the user's settings, various 3D reproduction results are possible.

제 4 장 상업용 및 오픈소스 영상해석 툴 비교·분석Chapter 4 Comparison and analysis of commercial and open source image analysis tools

41 영상해석 3D 모델 품질 비교41 Image analysis 3D model quality comparison

411 오픈소스 영상해석 툴 포인트 클라우드411 open source video analysis tool point cloud

포인트 클라우드가 많을수록 영상 품질이 향상되는데 SfM 기반 오픈소스를 활용The more point clouds there are, the better the image quality is, using SfM-based open source.

하여 생성한 고밀도 포인트 클라우드의 점군개수 비교를 그림 41과 같이 그래프로A comparison of the number of point clouds of the high-density point cloud created is graphed as shown in Figure 41.

나타내었다. Sift기법을 통한 WebODM 영상해석시 117,171 포인트를 획득하였고,indicated. 117,171 points were obtained when interpreting WebODM video using the Sift technique.

COLMAP 해석시 87,438 포인트를 획득하였다. 또한 VisualSFM으로 해석시 88,09387,438 points were obtained during COLMAP analysis. Also, when analyzed with VisualSFM, 88,093

포인트, Meshroom 해석시 91,095 포인트를 획득하였다. 따라서 오픈소스 중에서는Points, 91,095 points were obtained during Meshroom analysis. Therefore, among open source

WebODM의 포인트 클라우드가 가장 많이 획득되었다. 그림 42는 오픈소스를 통해WebODM's point cloud was obtained the most. Figure 42 is through open source.

획득한 포인트 클라우드를 시각화 한 것이다.This is a visualization of the acquired point cloud.

412 오픈소스 3D 모델 재현성 및 왜곡성412 Open source 3D model reproducibility and distortion

오픈소스 영상해석 툴을 활용하여 재현한 3D 모델의 품질 비교를 위해 그림Figure to compare the quality of 3D models reproduced using an open source image analysis tool.

43~45와 같이 확대하여 완성도를 비교하였다.The completeness was compared by enlarging it as shown in 43-45.

확대하여 품질 확인한 결과, 포인트 클라우드 수가 다른 해석툴에 비해 많이 획As a result of checking the quality by zooming in, the number of point clouds was larger than that of other analysis tools.

득된 WebODM의 재현성 및 왜곡성이 다른 오픈소스에 비해 우수한 것으로 나타났The reproducibility and distortion of the obtained WebODM were found to be superior to other open sources.

다. 이는 동일한 SIFT 특징점 추출 기법을 사용하였으나 특징점 매칭 과정시all. This used the same SIFT feature point extraction technique, but during the feature point matching process,

RANSAC 알고리즘의 예비 특징점 필터링 과정으로 인한 포인트 클라우드 획득차이Difference in point cloud acquisition due to preliminary feature point filtering process of RANSAC algorithm

로 인한 품질차이가 발생한 것으로 사료된다. 또한 측면 부분 왜곡성의 차이가 많It is believed that the quality difference occurred due to this. Also, there is a lot of difference in side distortion.

이 나는걸 육안으로 확인할 수 있는데 UAV 영상 특성상 공중에서 지상으로 촬영시You can see this flying with the naked eye, but due to the nature of UAV video, when shooting from the air to the ground,

측면부분의 사각지대가 발생하므로 3차원 재현이 미흡한 것으로 사료된다.It is believed that 3D reproduction is insufficient because there are blind spots on the sides.

413 상업용과의 3D 모델 품질 비교3D model quality comparison with 413 commercial

오픈소스중 제일 우수한 품질을 나타낸 WebODM과 상업용 영상해석 툴인WebODM and commercial video analysis tool with the highest quality among open sources

Pix4Dmapper로 재현한 3D 모델을 가시화하여 특정 부분을 확대, 완성도를 비교 하Visualize the 3D model reproduced with Pix4Dmapper to enlarge specific parts and compare completeness.

였다.It was.

그림 46과 같이 품질비교 결과, 자동차 재현 부분에서 포인트 노이즈 및 존재하As a result of quality comparison, as shown in Figure 46, point noise and presence of

였으나 전반적으로 도로 및 구조물의 표현은 2가지 영상해석 툴 모두 양호하게 나However, overall, the expression of roads and structures was good in both image analysis tools.

타났다. 특히, WebODM의 도로 부분 영상품질 및 왜곡성은 Pix4Dmapper에 비해 양It came out. In particular, the image quality and distortion of the road section of WebODM are better than those of Pix4Dmapper.

호하게 나타났으나 측면부분 및 구조물 표현은 다소 부족한 것으로 나타났다. 이는Although it appeared well, the expression of the side parts and structures appeared to be somewhat lacking. this is

상업용 영상해석 툴의 특징점 추출 및 필터링 과정이 오픈소스 영상해석 툴보다 우The feature point extraction and filtering process of commercial image analysis tools is superior to that of open source image analysis tools.

수한 것으로 사료된다.It is believed to have been done well.

42 영상해석 정확도 비교·분석42 Comparison and analysis of image interpretation accuracy

421 상업용(Pix4Dmapper) 영상해석 툴 정확도421 Commercial (Pix4Dmapper) image analysis tool accuracy

표 41과 같이 상업용 영상해석 툴을 활용한 3D재현 모델의 기준점(01,02,03) 3점As shown in Table 41, 3 reference points (01, 02, 03) for the 3D reproduction model using a commercial image analysis tool.

및 검사점(c01,c02,c03) 3점의 값을 비교·분석하였다.and the values of three inspection points (c01, c02, c03) were compared and analyzed.

422 오픈소스(WebODM) 영상해석 툴 정확도422 Open source (WebODM) video analysis tool accuracy

표 41과 같이 상업용 영상해석 툴을 활용한 3D재현 모델의 기준점(01,02,03) 3점As shown in Table 41, 3 reference points (01, 02, 03) for the 3D reproduction model using a commercial image analysis tool.

및 검사점(c01,c02,c03) 3점의 값을 비교·분석하였다.and the values of three inspection points (c01, c02, c03) were compared and analyzed.

423 상업용 및 오픈소스 영상해석 툴 정확도 비교423 Comparison of accuracy of commercial and open source image analysis tools

표 41~42의 검사점별 편차분포를 이용한 X, Y, Z 축 절대평균편차를 산출하여Calculate the absolute average deviation of the X, Y, and Z axes using the deviation distribution for each inspection point in Tables 41 and 42.

그림 47의 그래프로 표현, 분석 결과 Pix4Dmapper 와 WebODM의 X축과 Z축의 편Expressed as a graph in Figure 47, the analysis results show the X and Z axes of Pix4Dmapper and WebODM.

차는 동일하였고, Y축에서 002m로 분석되었다. 이를통해 상업용과 오픈소스의 편The car was the same and analyzed at 002 m on the Y axis. Through this, the convenience of commercial and open source

차가 근소한 차이임을 확인하였고, 지적경계오차의 기준인 003m 보다 준수한 정확It was confirmed that the difference was slight, and the accuracy was more than 003m, which is the standard for cadastral boundary error.

도를 얻을 수 있었다.I was able to obtain the Tao.

424 수치지도와의 중첩 비교분석Overlap comparative analysis with 424 numerical maps

그림 48~10은 UAV 기반 오픈소스 및 상업용 영상해석 툴로 제작한 정사영상과Figures 48-10 show orthoimages produced with UAV-based open source and commercial image analysis tools.

국토지리정보원(NGII)에서 제공하는 항공사진으로 제작한 실감정사영상 및 1:5000Realistic photorealistic video and 1:5000 scale produced from aerial photos provided by the National Geographic Information Institute (NGII)

수치지도와 중첩하여 비교 한 것이다.It is compared by overlapping with the numerical map.

비교·분석결과, 국토지리정보원의 실감정사영상보다 UAV를 활용하여 해석한 정As a result of comparison and analysis, the information interpreted using UAV was better than the actual photorealistic image of the National Geographic Information Institute.

사영상 정합성이 양호함을 나타났다. 특히, 그림 411의 중첩영상을 확대 분석하여It was shown that the projection image consistency was good. In particular, by enlarging and analyzing the overlapping image in Figure 411,

평균 편차를 확인한 결과, UAV 기반 상업용 영상해석 툴인 Pix4mapper는 평균 약As a result of checking the average deviation, Pix4mapper, a UAV-based commercial image analysis tool, showed an average of about

03m의 편차를 확인하였고 오픈소스 영상해석 툴인 WebODM은 평균 약 05m의 편A deviation of 03m was confirmed, and WebODM, an open source video analysis tool, showed an average deviation of about 05m.

차를 나타내었다. 국토지리정보원의 편차는 평균 약 12m로 이와같이, UAV에 의한Shown the car. The average deviation of the National Geographic Information Institute is about 12m.

정합성과가 양호하게 나타난 것은 UAV의 해상도(GSD)가 항공사진측량영상의 해상The reason why the matching performance was good is that the resolution (GSD) of the UAV is the resolution of the aerial photogrammetry image.

도보다 우수한 관계로 사료된다. 또한, 상업용 및 오픈소스를 활용한 영상해석 툴의It is believed to be superior to the province. In addition, video analysis tools using commercial and open source

차이가 근소함을 확인, UAV를 활용하여 오픈소스 영상해석 툴로 수치지도 제작 가Confirming that the difference is small, a digital map was produced using an open source image analysis tool using UAV.

능성을 입증하였다.Proven ability.

제 5 장 결론Chapter 5 Conclusion

본 연구는 UAV를 사용하여 취득한 영상을 SfM 기반 상업용 및 오픈소스 해석툴This study analyzed images acquired using UAV using SfM-based commercial and open source analysis tools.

을 활용, 양호한 품질의 3D 모델 및 정사영상을 획득하였다. 특히, 다양한 오픈소스Using , good quality 3D models and orthoimages were obtained. In particular, various open source

를 활용 및 조합하여 상업용 영상해석 툴과의 품질 및 정확도 비교·분석한 결과Results of comparing and analyzing quality and accuracy with commercial image analysis tools by utilizing and combining

오픈소스 영상해석 툴의 효용성을 다음과 같이 검토할 수 있었다.The effectiveness of the open source video analysis tool was reviewed as follows.

첫째, 오픈소스 영상해석 툴인 WebODM, COLMAP, Meshroom, VisualSFM중First, among the open source video analysis tools WebODM, COLMAP, Meshroom, and VisualSFM.

WebODM의 포인트 클라우드 및 영상품질이 제일 우수한 것으로 나타났다. SfM 영WebODM's point cloud and video quality were found to be the best. SfM Young

상해석 과정에서 SIFT 특징점 추출기법과 RANSAC 특징점 매칭기법을 동일하게 사In the Shanghai analysis process, the SIFT feature point extraction technique and the RANSAC feature point matching technique are used equally.

용하였으나 각각 툴간의 특징점 필터링 차이로 인해 품질 차이가 발생한 것으로 나However, it was found that quality differences occurred due to differences in feature point filtering between each tool.

타났다. 또한 WebODM을 제외한 영상해석 툴들은 고밀도 포인트 클라우드 생성과It came out. In addition, video analysis tools, excluding WebODM, generate high-density point clouds and

정은 동일하였으나 3차원공간정보를 포함한 UAV매핑에 필요한 절대좌표변환 및The definition was the same, but the absolute coordinate conversion and

DEM, DSM, 정사영상제작에 제한이 있음을 확인했다.It was confirmed that there are limitations in DEM, DSM, and orthophoto production.

둘째, WebODM은 SfM 기반의 전처리과정을 포함하고 지상기준점의 Geo-taggingSecond, WebODM includes an SfM-based preprocessing process and geo-tagging of ground control points.

과정을 통해 3차원공간정보를 포함한 3D 모델 재현 및 정사영상 제작이 가능함을Through this process, it is possible to reproduce 3D models including 3D spatial information and produce orthoimages.

입증하였다. 비록 상업용 영상해석 툴의 품질이 우수하였으나 WebODM으로 영상해Proven. Although the quality of commercial image analysis tools was excellent, images were converted to WebODM.

석(X:002, Y:003, Z:004)한 3D 모델과 상업용 영상해석 Pix4Dmapper(X:002, Y:001,3D model analysis (X:002, Y:003, Z:004) and commercial image analysis Pix4Dmapper (X:002, Y:001,

Z:004) 3D 모델의 정확도 결과 큰 차이가 없음을 확인, 공공측량 작업규정 허용오Z:004) It was confirmed that there was no significant difference in the accuracy of the 3D model, and public survey work regulations did not allow it.

차규정인 3cm 이내의 정확도를 나타내어 오픈소스 영상해석 툴의 실효성을 확인하It confirms the effectiveness of the open source image analysis tool by showing accuracy within 3cm, which is the secondary standard.

였다.It was.

셋째, UAV 기반 오픈소스 영상해석을 활용하여 3차원 공간정보 구축 및 정사영Third, use UAV-based open source image analysis to construct 3D spatial information and orthogonal projection

상을 생성하여 국토지리정보원에서 제공하는 실감정사영상과 수치지형도를 중첩·Create an image by overlapping the real-world photorealistic image and digital topographic map provided by the National Geographic Information Institute.

비교 결과 높은 정합성을 확인하였다. 특히, 항공사진으로 촬영한 실감정사영상 품As a result of comparison, high consistency was confirmed. In particular, real-time appraisal images taken from aerial photographs

질을 확대하여 비교한 결과 UAV로 촬영한 영상품질의 우수성을 입증하였다. 이를As a result of enlarging the quality and comparing it, the superiority of the image quality captured by the UAV was demonstrated. This

통해 높은 비용 및 갱신주기가 길었던 항공영상을 UAV영상기반 오픈소스 영상해석UAV image-based open source image analysis of aerial images with high costs and long update cycles

툴로 대체한다면 경제적 절감과 영상 갱신주기를 단축할 수 있을 것으로 사료된다.It is believed that replacing it with a tool will result in economic savings and shorten the video update cycle.

향후, 오픈소스의 장점인 수정 및 재배포가 가능한 점을 활용하여 공개된 소스코In the future, open source code will be developed by taking advantage of open source's ability to modify and redistribute.

드에 대한 고찰 및 최적의 영상해석 파이프라인을 모색, 상업용 영상해석 툴보다Consideration of the image analysis pipeline and finding the optimal image analysis pipeline, compared to commercial image analysis tools.

높은 수준의 품질 및 정확도 향상 연구를 수행할 예정이다.We plan to conduct high-level quality and accuracy improvement research.

Claims (1)

오픈소스를 활용한 드론 영상해석 방법.Drone video analysis method using open source.
KR1020220035735A 2022-03-23 2022-03-23 Drone image analysis method using open source KR20230138108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220035735A KR20230138108A (en) 2022-03-23 2022-03-23 Drone image analysis method using open source

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220035735A KR20230138108A (en) 2022-03-23 2022-03-23 Drone image analysis method using open source

Publications (1)

Publication Number Publication Date
KR20230138108A true KR20230138108A (en) 2023-10-05

Family

ID=88294359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220035735A KR20230138108A (en) 2022-03-23 2022-03-23 Drone image analysis method using open source

Country Status (1)

Country Link
KR (1) KR20230138108A (en)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
[1] 이근환, 2011, "소형무인기 위치추정에 적합한 영상정보 처리 시스템 개발",석사학위논문, 건국대학교
[2] 김석구, 2014, "무인비행시스템을 이용한 공간정보 구축 및 활용에 관한 연구", 박사학위논문, 목포대학교
[3] 임수봉, 2016, "무인항공사진측량을 이용한 공간정보 생성 및 정확도 평가",박사학위논문, 충남대학교
[4] 박진환, 2017, "저사양 무인항공기를 이용한 소규모 경사지역의 정사영상 및 수치표고모델 제작", 석사학위논문, 경북대학교
[5] 박창수, 2018, "무인항공영상을 이용한 캠퍼스 시설물의 3차원 실감모델 생성", 석사학위논문, 한국교통대학교

Similar Documents

Publication Publication Date Title
Daneshmand et al. 3d scanning: A comprehensive survey
US10297074B2 (en) Three-dimensional modeling from optical capture
US20190026400A1 (en) Three-dimensional modeling from point cloud data migration
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
Zhang et al. A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
Tache et al. UAV SOLUTIONS FOR THE PROTECTION AND MANAGEMENT OF CULTURAL HERITAGE. CASE STUDY: HALMYRIS ARCHAEOLOGICAL SITE.
CN115641401A (en) Construction method and related device of three-dimensional live-action model
US8395760B2 (en) Unified spectral and geospatial information model and the method and system generating it
Ahmed et al. A GIS-based mathematical approach for generating 3D terrain model from high-resolution UAV imageries
Buyuksalih et al. 3D city modelling of Istanbul based on LiDAR data and panoramic images–Issues and challenges
Lin et al. Application of UAV-Based Oblique Photography in Architectural Design: The Case of Mengyuan Resort Hotel in Yunnan, China
Stal et al. Highly detailed 3D modelling of Mayan cultural heritage using an UAV
Shan et al. Democratizing photogrammetry: an accuracy perspective
Chiabrando et al. Performance evaluation of cots uav for architectural heritage documentation. A test on s. giuliano chapel in savigliano (cn)–Italy
Costantino et al. Point cloud management through the realization of the intelligent cloud viewer software
KR20230138108A (en) Drone image analysis method using open source
Chen et al. Generate 3D triangular meshes from spliced point clouds with cloudcompare
Doumit Structure from motion technology for historic building information modeling of Toron fortress (Lebanon)
Liang et al. Efficient match pair selection for matching large-scale oblique UAV images using spatial priors
Suciu et al. 3D modeling using Parrot Bebop 2 FPV
Sadeq City modelling using geoinformatics: a case study of the college of engineering campus, Salahaddin University, Iraq
Guo et al. Research on 3D geometric modeling of urban buildings based on airborne lidar point cloud and image
Putra et al. Unmanned Aerial Vehicle (UAV) Photogrammetry for Heritage Building Documentation
Jedlička A comprehensive overview of a core of 3D GIS