KR102538157B1 - 무인비행체를 이용한 3차원 실사모델 제작 방법 - Google Patents
무인비행체를 이용한 3차원 실사모델 제작 방법 Download PDFInfo
- Publication number
- KR102538157B1 KR102538157B1 KR1020220060045A KR20220060045A KR102538157B1 KR 102538157 B1 KR102538157 B1 KR 102538157B1 KR 1020220060045 A KR1020220060045 A KR 1020220060045A KR 20220060045 A KR20220060045 A KR 20220060045A KR 102538157 B1 KR102538157 B1 KR 102538157B1
- Authority
- KR
- South Korea
- Prior art keywords
- model
- real
- producing
- unmanned aerial
- aerial vehicle
- Prior art date
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 31
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000012937 correction Methods 0.000 claims description 19
- 238000007689 inspection Methods 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 9
- 230000008707 rearrangement Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 5
- 238000004445 quantitative analysis Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000012938 design process Methods 0.000 claims description 2
- 238000002360 preparation method Methods 0.000 claims description 2
- 230000008685 targeting Effects 0.000 claims 1
- 238000012876 topography Methods 0.000 abstract description 6
- 230000007613 environmental effect Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000012800 visualization Methods 0.000 description 9
- 238000011161 development Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 무인비행체를 이용한 3차원 실사모델 제작 방법에 관한 것으로, 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하는 단계; 상기 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하는 단계; 상기 생성된 3차원 점군자료를 이용하여 수치표고모델 및 수치표면모델을 생성하는 단계; 상기 생성된 수치표고모델 및 수치표면모델과 상기 항공영상을 정합하여 정사영상을 제작하는 단계; 및 상기 제작된 정사영상을 이용하여 상기 3차원 실사모델을 제작하는 단계;를 포함함으로써, 도심지역의 지형 및 시설물, 제반 환경적 요인 등의 특수성을 고려하여 양질의 3차원 실사모델을 구축할 수 있다.
Description
본 발명은 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하고, 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하며, 생성된 3차원 점군자료를 이용하여 수치표면모델(DSM)을 생성한 후에, 수치표면모델과 항공영상을 정합하여 정사영상을 제작하고, 제작된 정사영상을 이용하여 3차원 실사모델을 제작함으로써, 도심지역의 지형 및 시설물, 제반 환경적 요인 등의 특수성을 고려하여 양질의 3차원 실사모델을 구축할 수 있는 무인비행체를 이용한 3차원 실사모델 제작 방법에 관한 것이다.
잘 알려진 바와 같이, 시민이 접하는 도시는 2차원적인 평면이 아니라 3차원인 입체이며, 보다 엄밀하게 말게 3차원 공간이고, 나아가 4차원적인 장소로 점차 인식되고 있다. 그러나, 현실적으로는 2차원 공간상의 지도표현의 단순함과 이해도 부족으로 지도 파악의 어려움을 겪고 있다.
한편, 2차원 GIS는 현실세계를 점, 선 및 면의 2차원 객체로 일반화하는 과정에서 데이터 손실이 발생하게 되며, 현실세계에 대한 이해와 분석에 한계성을 내재하고 있다.
또한, 도시를 계획할 때 토지이용은 자칫 2차원 평면계획으로 규정될 수 있으나, 그 안에 건축되는 건축물의 규모와 용도를 규정하고 있으므로 3차원 공간계획에 해당하지만, 여전히 설계자가 설계를 할 때 2D 기반의 물량산출을 진행하고 있어 설계도면 작성, 수계산 등으로 설계자의 실수가 발생하는 문제점이 빈번하게 제기되고 있다.
최근, 정보처리 기술과 컴퓨터의 발달로 인해 막대한 양의 공간정보가 데이터베이스화되면서 시각화가 이루어지고 있을 뿐만 아니라 우리는 점점 시각적인 문화 속에서 살고 있는데, 정보의 시각화는 의사결정과정의 필수적인 부분이 되었으며, 기술발전을 통해 도시계획에서 시각적 의사소통을 지원하기 위해 3D 시각화가 점점 더 활용되고 있고, GIS와 3차원 기술의 발달, 그리고 인터넷에서 가상현실 구현에 관한 기술개발이 이루어지고 있다.
이러한 가상공간 및 스마트도시를 지원하기 위한 디지털트윈 구축에 대한 요구에 따라 3차원 공간정보 구축의 활용에 대한 중요도가 점차 증대되고 있다. 여기에서, 3차원 공간정보 기술은 2차원 위치정보에 높이(심도), 영상 및 속성정보를 추가하여 현실세계와 유사하게 표현하는 정보기술을 의미하며, 3차원 공간정보는 2차원 공간정보에 비해 현실세계를 보다 사실적으로 표현하고, 정량적인 분석이 가능하기 때문에, 업무 및 정책 결정에 높은 효용성을 보여주고 있어 3차원 공간정보 구축 및 운영체계가 고도화될 필요가 있다.
한편, 세계는 이제 4차 산업혁명에 직면해 있는데, 2016년 세계경제포럼을 통해 글로벌 이슈로 부상한 4차 산업혁명을 주도할 대표적인 사이버-물리시스템으로서의 무인비행체(드론, Drone, 무인항공기, UAV : unmanned aerial vehicle)에 대한 관심이 증가하고 있고, 드론산업은 4차 산업혁명 시대의 대표기술이 융합된 분야라는 특성 때문에, 4차 산업혁명 시대의 핵심으로 부상하고 있다.
이러한 무인비행체(드론)은 4차 산업을 주도해 나갈 미래기술로서, 클라우드 컴퓨팅, IoT(사물인터넷), AI(인공지능), 생명과학, 로봇기술, VR(가상현실) 등 ICT(정보통신기술)와 융합하여 다양한 활용이 가능하여 산업전반에 큰 변화를 예고하고 있다.
그리고, 4차 산업혁명은 인공지능(AI)을 활용한 자동화로 연결성을 극대화하는 산업환경의 변화를 나타내는데, 4차 산업혁명을 통해 가상현실(VR), 증강현실(AR), 자율주행, 자율비행, 스마트시티 등 다양한 기술이 파생되고 있다. 여기에서, 이들 4차 산업혁명의 기술들은 모두 공간정보를 활용한다는 공통점이 있다.
이에 따라, 최근 무인비행체를 활용한 3차원 공간정보 구축과 플랫폼의 필요성이 대두되었다.
본 발명은 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하고, 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하며, 생성된 3차원 점군자료를 이용하여 수치표면모델(DSM)을 생성한 후에, 수치표면모델과 항공영상을 정합하여 정사영상을 제작하고, 제작된 정사영상을 이용하여 3차원 실사모델을 제작함으로써, 도심지역의 지형 및 시설물, 제반 환경적 요인 등의 특수성을 고려하여 양질의 3차원 실사모델을 구축할 수 있는 무인비행체를 이용한 3차원 실사모델 제작 방법을 제공하고자 한다.
또한, 본 발명은 제작된 3차원 실사모델에 대한 위치정확도를 평가함으로써, 3차원 실사모델의 품질에 대한 신회도를 확보할 수 있을 뿐만 아니라 도시개발사업 전반에서 3차원 실시모델의 활용 가능성을 입증할 수 있는 무인비행체를 이용한 3차원 실사모델 제작 방법을 제공하고자 한다.
본 발명의 실시예들의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따르면, 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하는 단계; 상기 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하는 단계; 상기 생성된 3차원 점군자료를 이용하여 수치표면모델을 생성하는 단계; 상기 생성된 수치표면모델과 상기 항공영상을 정합하여 정사영상을 제작하는 단계; 및 상기 제작된 정사영상을 이용하여 상기 3차원 실사모델을 제작하는 단계;를 포함하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 항공영상을 촬영하는 단계는, 촬영계획 및 사전세팅을 수행하되, 격자형 촬영경로로 설정하여 폐색영역을 최소화하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 항공영상을 촬영하는 단계는, 카메라 캘리브레이션 및 렌즈검정을 수행하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 항공영상을 촬영하는 단계는, 지상기준점 측량계획 수립 및 측량을 수행하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 3차원 점군자료를 생성하는 단계는, 상기 항공영상을 해석하되, 상기 항공영상 및 사진좌표를 매칭시켜 상기 항공영상을 정렬 및 정합시키는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 3차원 점군자료를 생성하는 단계는, 상기 지상기준점을 기반으로 SIFT 기법과 SfM 기법을 통해 정합하여 상기 3차원 점군자료를 생성하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 정사영상을 제작하는 단계는, 방사보정, 수치미분편위수정 및 폐색영역 보정을 수행한 후에, 영상 재배열을 수행하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 3차원 실사모델을 제작하는 단계는, 상기 정사영상과, 상기 3차원 점군자료 및 수치표면모델을 이용하여 수행하되, 상기 정사영상의 각 화소에 대응하는 상기 수치표면모델 상의 높이값을 부여하고, 상기 항공영상을 텍스쳐링하여 상기 3차원 실사모델을 제작하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 3차원 실사모델을 제작하는 단계 이후에, 상기 제작된 3차원 실사모델에 대한 위치정확도를 평가하는 단계;를 더 포함하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
또한, 본 발명의 실시예에 따르면, 상기 위치정확도를 평가하는 단계는, 상기 3차원 실사모델에서 추출한 검사점을 기반으로 평균제곱근오차를 산출하는 기법을 적용하는 무인비행체를 이용한 3차원 실사모델 제작 방법이 제공될 수 있다.
본 발명은 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하고, 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하며, 생성된 3차원 점군자료를 이용하여 수치표면모델(DSM)을 생성한 후에, 수치표면모델과 항공영상을 정합하여 정사영상을 제작하고, 제작된 정사영상을 이용하여 3차원 실사모델을 제작함으로써, 도심지역의 지형 및 시설물, 제반 환경적 요인 등의 특수성을 고려하여 양질의 3차원 실사모델을 구축할 수 있다.
또한, 본 발명은 제작된 3차원 실사모델에 대한 위치정확도를 평가함으로써, 3차원실사모델의 품질에 대한 신회도를 확보할 수 있을 뿐만 아니라 도시개발사업 전반에서 3차원 실시모델의 활용 가능성을 입증할 수 있다.
도 1은 본 발명의 실시예에 따라 무인비행체를 이용하여 3차원 실사모델을 생성하는 과정을 나타낸 플로우차트이고,
도 2는 본 발명의 실시예에 따라 무인비행체를 이용하여 3차원 실사모델을 생성하는 시스템을 개략적으로 나타낸 블록구성도이며,
도 3은 본 발명의 실시예에 따른 무인비행체를 이용한 3차원 실사모델 생성 플랫폼을 개념적으로 예시한 도면이고,
도 4는 본 발명의 실시예에 따라 무인비행체의 비행경로를 격자형 촬영경로로 설정하는 것을 예시한 도면이며,
도 5는 본 발명의 실시예에 따른 사진기준점 측량 결과를 예시한 도면이고,
도 6 및 도 7은 본 발명의 실시예에 따른 3차원 점군자료를 예시한 도면이며,
도 8 내지 도 10은 본 발명의 실시예에 따른 수치표면모델(DSM)을 생성하는 것을 예시한 도면이고,
도 11은 본 발명의 실시예에 따른 정사영상을 예시한 도면이며,
도 12 및 도 13은 본 발명의 실시예에 따른 정사영상의 정확도를 검증하는 것을 예시한 도면이고,
도 14는 본 발명의 실시예에 따른 3차원 실사모델을 예시한 도면이며,
도 15 및 도 16은 본 발명의 실시예에 따른 검사점 선정 및 3차원 절대좌표 측정에 대해 설명하기 위한 도면이고,
도 17은 본 발명의 실시예에 따른 대축적의 3차원 실사모델을 예시한 도면이다.
도 2는 본 발명의 실시예에 따라 무인비행체를 이용하여 3차원 실사모델을 생성하는 시스템을 개략적으로 나타낸 블록구성도이며,
도 3은 본 발명의 실시예에 따른 무인비행체를 이용한 3차원 실사모델 생성 플랫폼을 개념적으로 예시한 도면이고,
도 4는 본 발명의 실시예에 따라 무인비행체의 비행경로를 격자형 촬영경로로 설정하는 것을 예시한 도면이며,
도 5는 본 발명의 실시예에 따른 사진기준점 측량 결과를 예시한 도면이고,
도 6 및 도 7은 본 발명의 실시예에 따른 3차원 점군자료를 예시한 도면이며,
도 8 내지 도 10은 본 발명의 실시예에 따른 수치표면모델(DSM)을 생성하는 것을 예시한 도면이고,
도 11은 본 발명의 실시예에 따른 정사영상을 예시한 도면이며,
도 12 및 도 13은 본 발명의 실시예에 따른 정사영상의 정확도를 검증하는 것을 예시한 도면이고,
도 14는 본 발명의 실시예에 따른 3차원 실사모델을 예시한 도면이며,
도 15 및 도 16은 본 발명의 실시예에 따른 검사점 선정 및 3차원 절대좌표 측정에 대해 설명하기 위한 도면이고,
도 17은 본 발명의 실시예에 따른 대축적의 3차원 실사모델을 예시한 도면이다.
본 발명의 실시예들에 대한 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다. 도 1은 본 발명의 실시예에 따라 무인비행체를 이용하여 3차원 실사모델을 생성하는 과정을 나타낸 플로우차트이고, 도 2는 본 발명의 실시예에 따라 무인비행체를 이용하여 3차원 실사모델을 생성하는 시스템을 개략적으로 나타낸 블록구성도이며, 도 3은 본 발명의 실시예에 따른 무인비행체를 이용한 3차원 실사모델 생성 플랫폼을 개념적으로 예시한 도면이다.
도 1 내지 도 3을 참조하면, 무인비행체(10)를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영할 수 있다(단계110).
여기에서, 항공영상을 촬영하는 단계(110)에서는 촬영계획 및 사전세팅을 수행하되, 격자형 촬영경로로 설정하여 폐색영역을 최소화할 수 있다.
구체적으로, 무인비행체(10)를 이용한 영상 촬영은 촬영계획 수립, 사전 세팅, 카메라 캘리브레이션, 지상기준점(GCP) 측량 계획 수립, 지상기준점(GCP) 측량 등으로 세분화하여 진행할 수 있는데, 무인비행체(10)는 도심지역의 지형, 각종 시설물 등을 고려하여 고정익 드론 또는 회전익 드론을 사용할 수 있으며, 대상객체에 근접하여 수직영상 및 수평영상을 포함하는 다각도의 영상 촬영이 가능하면서 저고도 비행 및 호버링(hovering)이 가능한 회전익 드론의 사용이 더 바람직하다.
에를 들면, 무인비행체(10)를 이용한 항공영상의 촬영을 위해 촬영승인인허가, 촬영코스와 축적 결정, 촬영계획도 작성, 촬영용역의 대상면적 및 범위, 기존 및 계획 시준점, 시간 일정, 최종 요구 결과물, 최적 비행시즌, 지상 피복 조건, 허용 안전율 고려, 촬영 패턴(종,횡 중복도), 촬영계획 계산 등의 촬영계획 및 검토가 수행될 수 있다.
그리고, 무인비행체(10)를 이용한 항공영상의 촬영을 지원하기 위한 지원어플리케이션(예를 들면, pix4Dcapture 등)을 이용할 수 있는데, 고층건물이 밀집한 도심지형 및 지물의 특성을 고려하여 폐색영역의 발생을 최소화할 수 있도록 격자형 촬영경로를 설정하여 항공영상을 촬영할 수 있다. 예를 들면, 고층건물이 밀집한 지형의 특성을 고려하여 폐색영역의 발생을 최소화하기 위해 도 4에 도시한 바와 같이 촬영대상지를 동서방향으로 7개와 남북방향으로 7개의 촬영경로를 격자형으로 설정할 수 있다.
여기에서, 항공영상의 중복도는 평탄한 지역을 대상으로 하는 중복도에 대비하여 종방향 중복도 및 횡방향 중복도를 각각 적어도 20% 이상 가중하여 촬영할 수 있는데, 낮은 촬영고도로 인해 인접사진 간의 충분한 중복도를 확보하면서 기체 자세의 불안정성을 감안하여 무인비행체(10)의 항공영상 촬영에 대한 중복도는 예를 들면, 평탄한 저지대 지역(촬영방향 중복도(종) : 65% 이상, 인접코스 중복도(횡) : 60% 이상), 매칭점이 부족하거나 높이차가 있는 지역(촬영방향 중복도(종) : 75% 이상, 인접코스 중복도(횡) : 70% 이상), 높이차가 크거나 60m이상의 건물이 있는 지역(촬영방향 중복도(종) : 85% 이상, 인접코스 중복도(횡) : 80% 이상) 등으로 설정하여 촬영할 수 있다.
또한, 항공영상을 촬영하는 단계(110)에서는 카메라 캘리브레이션 및 렌즈검정을 수행하되, 방사왜곡보정과, 접선왜곡보정을 수행할 수 있다.
여기에서, 무인비행체(10)에 장착되는 카메라의 경우 중량 제한으로 인해 비측정용(non-metric) 카메라인 경우가 대부분이기에, 항공영상 기반 측정 정확도 향상을 위해 렌즈검정(lens calibration)을 수행하여 후술하는 단계120에서의 영상해석에 반영할 수 있도록 검정자료를 제공할 수 있다.
예를 들면, 방사왜곡은 카메라 영상 센서의 가장자리 부근에서 픽셀의 위치가 왜곡되는 현상을 의미하며, 기 왜곡형상이 오목하게 들어가는 현상을 어안왜곡, 볼록하게 부풀어 오르는 현상을 술통형 왜곡으로 부르고, 이를 보정하기 위해 아래의 수학식 1을 적용할 수 있다.
[수학식 1]
또한, 접선왜곡은 렌즈의 조합과정에서 렌즈들의 중심이 일치하지 않아 발생하는 왜곡으로, 방사왜곡이 비해 그 왜곡량은 무시할 수 있을 정도로 작은데, 이 접선왜곡은 아래의 수학식 2를 적용할 수 있다.
[수학식 2]
상술한 바와 같이 보정된 검정자료들은 후속 영상해석을 위해 3차원실사모델제작장치(20)에 입력될 수 있다.
그리고, 항공영상을 촬영하는 단계(110)에서는 지상기준점(GCP) 측량계획 수립 및 측량을 수행하되, 가상기준점을 이용한 실시간 동적관측기법(VRS-RTK)을 적용하여 지상기준점을 측량할 수 있다.
여기에서, 지상기준점(GCP)은 최종적으로 제작되는 3차원 실사모델로부터 획득되는 각종 포인트 자료의 절대좌표 획득을 위해 측량할 수 있는데, 가상기준점을 이용한 실시간 동적관측기법(VRS-RTK : virtual reference system by real-time kinematic)을 적용할 수 있다.
예를 들면, 사진측량에서 사진으로부터 지상의 대상객체에 대한 3차원 절대 좌표 및 항공삼각측량의 수행을 위해서는 좌표참조(georeferencing)가 요구되는데, 무인비행체(10)로부터 촬영된 항공영상의 후속처리작업과 최종결과물의 정확도를 확보하기 위해서 지상기준점(GCP : ground control point)의 성과가 필수적으로 요구된다. 이와 함께, 최종결과물인 3차원 실사모델에 대한 정확도 검증을 위해서 추가적인 검사점(check point)이 요구된다.
이에 따라, 촬영된 영상으로부터 식별이 명확하면서 실제 지상측량에 있어 접근성이 양호한 점을 기준으로 지상기준점 및 검사점을 선정하여 측량할 수 있으며, 이들 기준점에 대해 GNSS RTK-VRS 측량에 의해 절대좌표를 획득할 수 있다.
다음에, 3차원실사모델제작장치(20)에서는 상기 단계(110)에서 촬영된 항공영상을 해석하여 3차원 점군자료를 생성할 수 있다(단계120).
여기에서, 3차원 점군자료를 생성하는 단계(120)에서는 항공영상을 해석하되, 항공영상 및 사진좌표를 매칭시켜 항공영상을 정렬 및 정합시킬 수 있다.
예를 들면, 무인비행체(10)에 의해 취득된 항공영상은 기체에 탑재된 카메라, GPS 및 IMU의 정보를 이용하여 항공사진의 초기좌표와 촬영고도, 외부표정요소 등을 취득하여 3차원실사모델제작장치(20)로 입력되고, 3차원실사모델제작장치(20)에서는 항공사진과 사진좌표 매칭, 항공사진 정렬 및 정합, 지상기준점 (측량)성과 입력, 점군자료 생성 등의 절차를 수행할 수 있다.
여기에서, 무인비행체(10)로부터 촬영된 항공영상, GPS/INS 자료, 카메라 검정자료 및 지상기준점 측량성과가 입력될 경우 3차원실사모델제작장치(20)에서는 항공삼각측량 수행을 위한 사진기준점에 대한 관측을 수행할 수 있고, 도 5에 도시한 바와 같은 사진기준점 측량 결과를 획득할 수 있다. 이 후, 지상기준점 측량으로부터 획득한 절대좌표를 입력하고, 항공삼각측량(AT)을 수행할 수 있다.
그리고, 3차원 점군자료를 생성하는 단계(120)에서는 항공삼각측량(AT) 작업이 완료될 경우 지상기준점을 기반으로 SIFT(scale invariant feature transform) 기법과 SfM(structure from motion) 기법을 통해 정합하여 3차원 점군자료를 생성할 수 있다.
여기에서, 영상정합(image matching)은 특징점을 기반으로 한 인식알고리즘이 주로 활용되는데, SIFT 기법의 경우 1단계에서 다양한 스케일(scale)에서 특징점을 검출하고, 2단계에서 특성정보를 추출하기 위한 서술자(descriptor)를 생성하되, 검색된 특징점들을 중심으로 거리를 계산하여 방향에 대한 키(key)를 결정한 후에, 방향을 중심을 서술자를 결정하는 방식으로 수행될 수 있고, 이는 여러 영상의 축적, 회전, 명암 등에 관계없이 영상정합을 위해 많은 수의 특징점을 제공함에 따라 무인비행체(10)로부터 획득한 대량의 항공영상의 처리를 위한 항공삼각측량(AT) 처리 과정의 원리로 이용될 수 있다.
또한, SfM 기법의 경우 다각도에서 촬영된 많은 수의 중복영상(즉, 중복 항공영상)으로부터 3차원 형상과 카메라 위치관계를 복원함과 동시에 3차원으로 재구성하는 컴퓨터 비전 기술로서, Sfm 번들조정은 지상의 좌표나 외부표정요소가 없어도 카메라의 자세와 영상기하를 보정하여 번들조정기법에 의해 3차원 점군자료를 생성할 수 있다.
이에 따라, SfM 기법은 무인비행체(10)를 이용하여 획득한 항공영상에 대해 신속하게 처리할 수 있고, 비측량용 카메라를 사용할 수 있는 장점이 있으며, 이로부터 직관적으로 3차원 점군자료의 생성 및 3차원 모델링이 가능한 장점이 있다.
예를 들면, 항공삼각측량(AT) 작업이 완료된 후, SIFT 기법과 SfM 기법을 적용하여 3차원 점군자료를 생성할 수 있는데, 촬영된 항공영상들이 입력될 경우 각각의 영상에서 SIFT 기법에 의해 특징점들을 자동 추출하고, 다수의 항공영상들 간의 비교를 통해 각 영상에서 추출된 특징점들을 서로 연계하며, 연계된 특이점들은 자동항공삼각법에 의해 기하보정될 수 있다.
그리고, 각각의 항공영사에서 특이점들의 기하보정이 완료될 경우 연속되는 항공영상들 간의 비교작업을 통해 다수의 사진에서 동일한 지점을 의미하는 특징점들이 정합되고, 정합된 특징점들을 추출한 후에, SfM 기법에 의해 3차원 절대좌표를 가지는 점군자료를 생성할 수 있다.
이러한 SfM 기법은 항공영상에 저장된 태크로부터 초점거리, 카메라 종류, 사진의 크기 등의 정보를 취득하여 초기값으로 이용하고, 정합을 위한 영상의 특징점을 추출하는데, 3차원 점군자료의 경우 상좌표와 공액조건에 의해 카메라 외부표정요소를 추출하고, 번들조정기법에 의해 추출될 수 있다.
상술한 바와 같은 과정을 통해 생성되는 3차원 점군자료는 도 6 및 도 7에 도시한 바와 같이 생성될 수 있다.
다음에, 3차원실사모델제작장치(20)에서는 상기 단계(120)에서 생성된 3차원 점군자료를 이용하여 수치표고모델(DEM : digital elevation model) 및 수치표면모델(DSM : digital surface model)을 생성할 수 있다(단계130).
이러한 수치표면모델(DSM)은 해당 지역에 존재하는 건물, 시설물 등의 높이값을 포함하여 생성하였고, 이를 통해 건물, 시설물 등으로 인해 발생하는 기복변위를 제거할 수 있으며, 3차원 점군자료를 이용하여 수치표고모델(DEM)도 생성할 수 있다.
또한, 최종 처리를 통해 도 8에 도시한 바와 같이 불규칙 삼각망(TIN : triangulated irregular network)을 구성하고, 랜더링(rendering) 처리에 의해 도 9 및 도 10에 각각 도시한 바와 같이 해당 지역에 대한 수치표고모델(DEM)과 수치표면모델(DSM)을 생성할 수 있다.
다음에, 3차원실사모델제작장치(20)에서는 상기 단계(130)에서 생성된 수치표고모델 및 수치표면모델과 항공영상을 정합하여 정사영상을 제작할 수 있다(단계140).
이러한 정사영상을 제작하는 단계(140)에서는 방사보정, 수치미분편위수정 및 폐색영역 보정을 수행한 후에, 영상 재배열을 수행할 수 있다.
여기에서, 방사보정은 가우시안기법(gaussian method)을 사용할 수 있고, 기하보정은 지상기준점(GCP)를 이용한 이미지투포인트(image to point) 기법을 사용할 수 있으며, 영상재배열(image resampling)은 큐빅컨볼루션기법(cubic convolution method)을 사용할 수 있다.
예를 들면, 상기 단계130에서 생성된 수치표고모델(DEM)과 수치표면모델(DSM)을 이용하여 시계열별로 획득한 대축적 무인항공영상을 정사보정하여 정사영상을 제작할 수 있는데, 정사보정을 위한 수치미분편위수정과정에서 영상재배열을 위한 보간법으로 공일차보간법을 적용할 수 있고, 영상재배열을 위한 최소 간격은 2화소 이하로 설정할 수 있다.
이 후, 최초 정사영상에 존재하는 폐색영영을 보정하기 위한 보정을 수행할 수 있으며, 폐색영역 보정 후 영상간 밝기값의 조정을 위해 방사보정을 수행함으로써, 도 11에 도시한 바와 같이 해당 지역에 대한 시기별 정사영상을 제작할 수 있다. 여기에서, 도 11의 좌측 정사영상은 이전 시기의 정사영상을 나타내고, 우측 정사영상은 이후 시기의 정사영상을 나타낸다.
한편, 본 발명의 실시예에서는 상술한 바와 같이 제작된 정사영상에 대한 정확도를 판단하기 위해 설계과정에서 대상지에 대한 직접측량을 통해 제작된 공사계획평면도를 이용할 수 있는데, 해당 지역의 정사영상과 공사계획평면도를 도 12에 도시한 바와 같이 중첩하여 정사영상에 대한 정확도를 판단할 수 있으며, 이를 통해 경계선, 도로선, 시설물의 윤곽선 등에서 상호 일치함을 확인할 수 있다.
또한, 정사영상의 정확도에 대한 정량적인 분석을 위해 공사계획평면도 상에서 특징점(예를 들면 15점)을 추출하여 도 13에 도시한 바와 같이 검사점으로 설정하고, 설정한 검사점에 대한 2차원 평면좌표를 각각 추출할 수 있고, 제작한 정사영상에서 동일지점의 검사점과의 매칭점을 추출하여 2차원 평면좌표를 추출할 수 있다.
이러한 공사계획평면도에서 추출한 평면좌표와 정사영상에서 추출한 평면좌표를 비교함으로써, 정사영상의 정확도를 판단할 수 있으며, 실제 비교 분석한 결과 오차범위 내에서 일치함을 확인할 수 있다.
다음에, 3차원실사모델제작장치(20)에서는 상기 단계(140)에서 제작된 정사영상을 이용하여 3차원 실사모델을 제작할 수 있다(단계150).
여기에서, 3차원 실사모델을 제작하는 단계(150)에서는 정사영상과, 3차원 점군자료 및 수치표면모델을 이용하여 수행하되, 정사영상의 각 화소에 대응하는 수치표면모델 상의 높이값을 부여하고, 항공영상을 텍스쳐링하여 3차원 실사모델을 제작할 수 있다.
예를 들면, 무인비행체(10)를 이용하여 획득한 항공영상을 입력받아 3차원실시모델제작장치(20)에서 3차원 좌표기반의 고밀도 점군자료가 생성되고, 수치표고모델 및 수치표면모델이 각각 생성되며, 실감정사영상이 제작될 경우 이들 자료를 이용하여 3차원 실사모델을 제작할 수 있는데, 3차원실시모델제작장치(20)에서는 3차원 실사모델을 제작하기 위해 우선 2차원 형태이지만 실제 평면좌표를 가지고 있는 정사영상의 각 화소에 대응하는 수치표면모델 상의 높이값을 부여함으로써, 3차원 형태의 실시영상을 제작할 수 있다.
그리고, 3차원실시모델제작장치(20)에서는 3차원 형태의 실사영상에 대상지역 내 건물 등의 대상체에 대해서 촬영된 수평방향 항공영상을 동일한 방식으로 텍스쳐링(texturing)함으로써, 도 14에 도시한 바와 같이 최종적으로 3차원 실사모델을 제작할 수 있다.
본 발명의 실시예에서 제작한 3차원 실사모델 상의 모든 포인트들은 3차원의 절대좌표를 갖게 됨으로써, 실사모델 상에서 측정되는 값들은 실공간상의 좌표값을 갖게 되며, 기존의 가상영상 등을 이용한 렌더링 방식에 의해 제작된 모델에 비해 현실세계를 사실적으로 표현할 수 있어 3차원 지도의 품질을 현저하게 향상시킬 수 있다.
다음에, 3차원실사모델제작장치(20)에서는 상기 단계(150) 이후에, 제작된 3차원 실사모델에 대한 위치정확도를 평가할 수 있다(단계160).
여기에서, 위치정확도를 평가하는 단계(160)에서는 3차원 실사모델에서 추출한 검사점을 기반으로 평균제곱근오차를 산출하는 기법을 적용할 수 있는데, 예를 들면, 3차원 실사모델에 대한 평가는 위치정확도를 평가하는 정량적 평가와 함께, 대상지역 내 대상객체에 대한 세밀도 수준과 가시화의 일관성을 평가할 수 있는 정성적 평가로 분류하여 평가할 수 있다.
우선, 3차원 실사모델을 대상으로 하는 정량적 평가는 3차원 실사모델로부터 획득되는 특징점을 대상으로 위치정확도를 평가하는 기법을 사용할 수 있고, 이 평가를 위해 3차원 실사모델로부터 추출한 검사점을 이용하여 평균제곱근오차(RMSE)를 산출하는 기법이 이용될 수 있다.
이러한 평균제곱근 오차는 잔차의 제곱합을 산술평균한 값의 제곱근으로서, 관측값들의 상호간 편차를 의미하고, 표준편차를 일반화시킨 척도로 실제값과 추정값과의 차이가 얼마인지 알려주는데 사용될 수 있는데. 평균제곱근오차와 표준편차는 개별 관측값이 중심으로부터 얼마나 멀리 떨어져 있는지의 정도를 나타낼 수 있으며, 아래의 수학식 3과 같이 산출될 수 있다.
[수학식 3]
상술한 바와 같이 평균제곱근오차를 이용한 측위 정확도를 산출하여 3차원 실시모델의 정량적 정확도를 평가할 수 있는데, 이를 위해 도 15에 도시한 바와 같이 3차원 실사모델에서 식별이 명확하다고 판단되는 20점의 검사점을 선정한 후에, 도 16에 도시한 바와 같이 3차원 실사모델에서 선정된 검사점에 대한 원경과 확대를 통해 3차원 절대좌표를 측정 및 획득할 수 있다.
그리고, 3차원 실사모델 상에서 샘플링한 검사점들에 대해 GPS Network-RTK(VRS) 측량 기법을 이용하여 현장에서 직접 측량하고, 그 측량 성과와 3차원 실사모델로부터 측정된 3차원 절대좌표를 상호 비교 분석할 수 있는데, 3차원 실사모델로부터 측정된 3차원 좌표 성과의 정확도를 검증하기 위한 것이므로, GPS Network-RTK(VRS) 측량 기법을 이용한 측량 성과를 최확값으로 간주하여 상호편차 분포를 이용하여 평균제곱근오차(RMSE)를 산출하는 방식으로 분석할 수 있다.
이러한 분석 결과는 아래의 표 1과 같이 나타났다.
즉, 상술한 바와 같이 각 검사점별 편차를 이용하여 X, Y, Z 좌표별로 평균제곱근오차(RMSE)를 산출한 결과, 검사점 20점에 대한 X축의 RMSE는 0.1238m, Y축에 대한 RMSE는 0.1092m, Z축의 RMSE는 0.1806m로 분석되었고, 항공영상을 이용하여 제작된 3차원 실사모델의 평면위치 정확도는 10-13cm 범위 내에서의 오차분포를 나타냈으며, 수직위치 정확도는 평균 20cm 범위 내에서의 오차분포를 나타냈다.
이러한 분석 결과는 수치도화를 통한 1:1000 수치지형도의 제작을 위한 오차의 허용범위로 평면 위치는 최대 0.4m 이내, 표고점의 경우 0.3m 이내로 규정된 허용기준을 만족하고 있다는 점을 확인하였다.
한편, 3차원 실사모델의 정성적 평가는 제작목적, 대상객체, 제작조건, 활용분야 등에 따라 다르게 설정될 수 있는데, 예를 들면, 세밀도 수준과 가시화 일관성 등을 기준으로 평가를 수행할 수 있다.
예를 들면, 제작된 3차원 실사모델의 개별 건축물을 선정하여 세밀도 수준을 평가할 수 있으며, 가시화의 수준과 일관성을 측정하는 방식으로 평가할 수 있는데, 도 17에 도시한 바와 같은 대축적의 3차원 실사모델에 대해 화면검사를 수행하여 세밀도 수준과 가시화 일관성을 평가할 수 있다.
여기에서, 3차원 공간정보에 대한 세밀도 수준은 1단계 내지 4단계로 분류되고 있는데, 본 발명의 실시예에 따라 제작된 3차원 실사모델의 경우 최상위 수준의 세밀도인 4단계로 하나의 레이어에 속한 3차원 객체의 정보를 실제와 동일한 텍스처로 제작하여 건물 등의 재질과 수직적, 수평적 돌출부 및 함몰부까지 정교하게 표현하고 있음을 확인할 수 있다.
또한, 가시화정보는 그림자 등의 특성을 고려하고, 실사영상텍스처의 경우 정사영상을 이용하도록 규정되어 있는 바, 본 발명의 실시예에 따라 제작된 3차원 실사모델의 경우 실사영상(정사영상) 텍스처를 통해 실제 건물과 동일한 가시적 효과를 나타내고 있으므로, 가시화 일관성을 충족하고 있는 것을 확인할 수 있다.
따라서, 본 발명의 실시예에서는 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하고, 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하며, 생성된 3차원 점군자료를 이용하여 수치표면모델(DSM)을 생성한 후에, 수치표면모델과 항공영상을 정합하여 정사영상을 제작하고, 제작된 정사영상을 이용하여 3차원 실사모델을 제작함으로써, 도심지역의 지형 및 시설물, 제반 환경적 요인 등의 특수성을 고려하여 양질의 3차원 실사모델을 구축할 수 있다.
또한, 본 발명의 실시예에서는 제작된 3차원 실사모델에 대한 위치정확도를 평가함으로써, 3차원 실사모델의 품질에 대한 신회도를 확보할 수 있을 뿐만 아니라 도시개발사업 전반에서 3차원 실시모델의 활용 가능성을 입증할 수 있다.
이상의 설명에서는 본 발명의 다양한 실시예들을 제시하여 설명하였으나 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함을 쉽게 알 수 있을 것이다.
10 : 무인비행체
20 : 3차원실사모델제작장치
20 : 3차원실사모델제작장치
Claims (10)
- 무인비행체를 이용하여 3차원 실사모델을 제작하고자 하는 영역에 대한 항공영상을 촬영하는 단계;
상기 촬영된 항공영상을 해석하여 3차원 점군자료를 생성하는 단계;
상기 생성된 3차원 점군자료를 이용하여 수치표고모델 및 수치표면모델을 생성하는 단계;
상기 생성된 수치표고모델 및 수치표면모델과 상기 항공영상을 정합하여 정사영상을 제작하는 단계; 및
상기 제작된 정사영상을 이용하여 상기 3차원 실사모델을 제작하는 단계;를 포함하며,
상기 항공영상을 촬영하는 단계는, 촬영계획 및 사전세팅을 수행하되, 격자형 촬영경로로 설정하여 폐색영역을 최소화하고,
상기 항공영상의 중복도는 평탄한 지역을 대상으로 하는 중복도에 대비하여 종방향 중복도 및 횡방향 중복도를 각각 적어도 20% 이상 가중하여 촬영하되, 평탄한 저지대 지역과, 매칭점이 부족하거나 높이차가 있는 지역과, 높이차가 크거나 60m이상의 건물이 있는 지역으로 설정하여 촬영하며,
상기 정사영상을 제작하는 단계는, 방사보정, 수치미분편위수정 및 폐색영역 보정을 수행한 후에, 영상 재배열을 수행하되, 상기 방사보정은 가우시안기법을 사용하고, 상기 영상재배열은 큐빅컨볼루션기법을 사용하고,
설계과정에서 대상지에 대한 직접측량을 통해 제작된 공사계획평면도를 이용하여 상기 정사영상에 대한 정확도를 판단하되, 상기 정사영상 및 공사계획평면도를 중첩하여 상기 정사영상에 대한 정확도를 판단하며,
상기 정사영상의 정확도에 대한 정량적인 분석을 수행하되, 공사계획평면도 상에서 특징점을 추출하여 검사점으로 설정한 후, 상기 설정한 검사점에 대한 2차원 평면좌표를 각각 추출하고, 상기 정사영상에서 동일지점의 검사점과의 매칭점을 추출하여 2차원 평면좌표를 추출하며, 추출된 각각의 상기 2차원 평면좌표를 비교하는 방식으로 상기 정량적인 분석을 수행하는
무인비행체를 이용한 3차원 실사모델 제작 방법. - 삭제
- 청구항 1에 있어서,
상기 항공영상을 촬영하는 단계는, 카메라 캘리브레이션 및 렌즈검정을 수행하는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 청구항 3에 있어서,
상기 항공영상을 촬영하는 단계는, 지상기준점 측량계획 수립 및 측량을 수행하는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 청구항 4에 있어서,
상기 3차원 점군자료를 생성하는 단계는, 상기 항공영상을 해석하되, 상기 항공영상 및 사진좌표를 매칭시켜 상기 항공영상을 정렬 및 정합시키는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 청구항 5에 있어서,
상기 3차원 점군자료를 생성하는 단계는, 상기 지상기준점을 기반으로 SIFT 기법과 SfM 기법을 통해 정합하여 상기 3차원 점군자료를 생성하는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 삭제
- 청구항 6에 있어서,
상기 3차원 실사모델을 제작하는 단계는, 상기 정사영상과, 상기 3차원 점군자료 및 수치표면모델을 이용하여 수행하되, 상기 정사영상의 각 화소에 대응하는 상기 수치표면모델 상의 높이값을 부여하고, 상기 항공영상을 텍스쳐링하여 상기 3차원 실사모델을 제작하는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 청구항 1, 청구항 3 내지 청구항 6, 청구항 8 중 어느 한 항에 있어서,
상기 3차원 실사모델을 제작하는 단계 이후에, 상기 제작된 3차원 실사모델에 대한 위치정확도를 평가하는 단계;
를 더 포함하는 무인비행체를 이용한 3차원 실사모델 제작 방법. - 청구항 9에 있어서,
상기 위치정확도를 평가하는 단계는, 상기 3차원 실사모델에서 추출한 검사점을 기반으로 평균제곱근오차를 산출하는 기법을 적용하는 무인비행체를 이용한 3차원 실사모델 제작 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220060045A KR102538157B1 (ko) | 2022-05-16 | 2022-05-16 | 무인비행체를 이용한 3차원 실사모델 제작 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220060045A KR102538157B1 (ko) | 2022-05-16 | 2022-05-16 | 무인비행체를 이용한 3차원 실사모델 제작 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102538157B1 true KR102538157B1 (ko) | 2023-05-26 |
Family
ID=86536734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220060045A KR102538157B1 (ko) | 2022-05-16 | 2022-05-16 | 무인비행체를 이용한 3차원 실사모델 제작 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102538157B1 (ko) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110082903A (ko) | 2010-01-12 | 2011-07-20 | (주) 충청에스엔지 | 항공사진의 정사보정 및 최적화된 정사영상 제작 방법 |
KR101859947B1 (ko) * | 2017-03-06 | 2018-06-27 | 강원대학교 산학협력단 | 무인 항공기를 이용한 재해위험 저수지의 정밀안전진단평가를 위한 데이터베이스 구축 시스템 및 방법 |
KR20200109948A (ko) * | 2019-03-15 | 2020-09-23 | 농업법인회사 (유) 로하스 | 드론을 이용한 건설현장 공정관리 시스템 및 그를 이용한 건설현장 공정관리 방법 |
KR20210000025A (ko) * | 2019-06-24 | 2021-01-04 | 신윤호 | 코 삽입 마스크 |
-
2022
- 2022-05-16 KR KR1020220060045A patent/KR102538157B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110082903A (ko) | 2010-01-12 | 2011-07-20 | (주) 충청에스엔지 | 항공사진의 정사보정 및 최적화된 정사영상 제작 방법 |
KR101859947B1 (ko) * | 2017-03-06 | 2018-06-27 | 강원대학교 산학협력단 | 무인 항공기를 이용한 재해위험 저수지의 정밀안전진단평가를 위한 데이터베이스 구축 시스템 및 방법 |
KR20200109948A (ko) * | 2019-03-15 | 2020-09-23 | 농업법인회사 (유) 로하스 | 드론을 이용한 건설현장 공정관리 시스템 및 그를 이용한 건설현장 공정관리 방법 |
KR20210000025A (ko) * | 2019-06-24 | 2021-01-04 | 신윤호 | 코 삽입 마스크 |
Non-Patent Citations (4)
Title |
---|
엄대용, 시설물의 4D 공정관리를 위한 3차원 실사모델 기반 변화탐지기법의 활용, 2021년 한국산학기술학회 추계 학술발표논문집(2021)* * |
옥진아, 드론기반의 경기도 3차원 공간정보 구축 및 활성화방안, 경기연구원, 정책연구 제2021-25호(2021)* |
이현직, 다차원공간정보를 이용한 실감정사영상 제작 방안, 한국측량학회지, 재26권3호(2008)* * |
임수봉 외 2인, 무인항공사진측량 방법에 의한 수치지도 갱신, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography Vol 33, No 5(2015)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111629193B (zh) | 一种实景三维重建方法及系统 | |
CN107194989B (zh) | 基于无人机飞机航拍的交通事故现场三维重建系统及方法 | |
CN102506824B (zh) | 一种城市低空无人机系统生成数字正射影像图的方法 | |
Gross et al. | Extraction of lines from laser point clouds | |
US7509241B2 (en) | Method and apparatus for automatically generating a site model | |
CN109238239B (zh) | 基于航空摄影的数字测量三维建模方法 | |
CN108168521A (zh) | 一种基于无人机实现景观三维可视化的方法 | |
Barazzetti et al. | True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach | |
KR101105361B1 (ko) | 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 | |
CN109708622A (zh) | 基于Pixhawk利用无人机对建筑物进行三维建模的方法 | |
KR20090064679A (ko) | 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 | |
CN117274499B (zh) | 一种基于无人机倾斜摄影的钢结构加工及安装方法 | |
CN114004977A (zh) | 一种基于深度学习的航拍数据目标定位方法及系统 | |
CN113192200A (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
CN115965790A (zh) | 一种基于布料模拟算法的倾斜摄影点云滤波方法 | |
WO2022064242A1 (en) | The method of automatic 3d designing of constructions and colonies in an smart system using a combination of machine scanning and imaging and machine learning and reconstruction of 3d model through deep learning and with the help of machine learning methods | |
Zhou et al. | Application of UAV oblique photography in real scene 3d modeling | |
Rebelo et al. | Building 3D city models: Testing and comparing Laser scanning and low-cost UAV data using FOSS technologies | |
Choi et al. | Precise geometric registration of aerial imagery and LIDAR data | |
KR102538157B1 (ko) | 무인비행체를 이용한 3차원 실사모델 제작 방법 | |
CN114119892B (zh) | 一种基于bim和gis技术的三维数字路网建设方法 | |
CN111197986A (zh) | 一种无人机三维路径实时预警避障方法 | |
CN115601517A (zh) | 岩体结构面信息采集方法、装置、电子设备及存储介质 | |
CN110163962A (zh) | 一种基于Smart 3D倾斜摄影技术输出实际地形等高线的方法 | |
Seong et al. | UAV Utilization for Efficient Estimation of Earthwork Volume Based on DEM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |