KR102528951B1 - 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치 - Google Patents

건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치 Download PDF

Info

Publication number
KR102528951B1
KR102528951B1 KR1020210041923A KR20210041923A KR102528951B1 KR 102528951 B1 KR102528951 B1 KR 102528951B1 KR 1020210041923 A KR1020210041923 A KR 1020210041923A KR 20210041923 A KR20210041923 A KR 20210041923A KR 102528951 B1 KR102528951 B1 KR 102528951B1
Authority
KR
South Korea
Prior art keywords
model
building
information
profiles
conversion coefficient
Prior art date
Application number
KR1020210041923A
Other languages
English (en)
Other versions
KR20220135789A (ko
Inventor
강지훈
이재희
이인수
연성현
Original Assignee
한국국토정보공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국국토정보공사 filed Critical 한국국토정보공사
Priority to KR1020210041923A priority Critical patent/KR102528951B1/ko
Publication of KR20220135789A publication Critical patent/KR20220135789A/ko
Application granted granted Critical
Publication of KR102528951B1 publication Critical patent/KR102528951B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치에 관한 것으로, 상기 방법은 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득하는 단계; 상기 드론영상을 기초로 상기 특정 지역에 존재하는 객체들에 대한 3차원 정보로서 3D 모델들을 구축하는 단계; 상기 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 획득하는 단계; 상기 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성하는 단계; 상기 2D 프로파일들과 상기 2D 전자지도 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출하는 단계; 및 상기 위치변환 계수를 상기 3D 모델에 적용하여 위치를 보정하는 단계;를 포함한다.

Description

건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치{3D MODEL POSITION CORRECTION METHOD AND DEVICE USING BUILDING SHAPE MATCHING ALGORITHM}
본 발명은 3차원 건물 정보 갱신 기술에 관한 것으로, 보다 상세하게는 가능한 짧은 시간에 3차원 건물 위치 정보를 갱신하기 위해 높은 위치 정확도의 2D 건물 정보를 활용해 3차원 건물의 위치 정보를 자동 보정하는 방법 및 장치에 관한 것이다.
최근 급속한 도시화에 따라 ICT 신기술을 접목하여 각종 도시문제를 해결할 수 있는 스마트시티가 주목받고 있다. 그리고, 이로 인해 도시 내의 각종 정보를 연계하고 가시화의 기반이 되는 3D 도시 모델에 대한 수요도 더불어 증가하고 있다. 3D 도시 모델은 기존 2D 지도와 비교했을 때 객체의 공간적 특성을 더 쉽게 이해할 수 있기 때문에 도시 내의 다양한 정보를 효과적으로 통합하고 시각화할 수 있다. 따라서, 3D 도시 모델은 도시 계획, 교통 통제, 재난 관리 등 도시문제에 활용하기 더 적합한, 필수적인 공간 데이터 인프라(Spatial Data Infrastructure)에 해당한다.
3D 도시 모델의 기본이 되는 3D 건물 모델은 항공영상을 기반으로 모델링하고 텍스처를 입혀 제작하고 있다. 하지만, 비용과 시간이 많이 소요되어 초기 구축 이후 갱신되기가 어렵고, 이로 인해 최신성이 떨어지는 문제점이 존재한다.
이러한 문제를 보완하기 위해 드론영상을 활용해 저비용으로 3D 모델을 구축하기 위한 다양한 연구들이 수행되고 있다. 예를 들어, 드론영상의 품질을 평가하고 항공영상의 대체 가능성을 확인하기 위해 고도, 영상의 중첩 정도, 지상기준점(GCP) 개수 등의 촬영 변수들에 따른 영상 혹은 3D 모델의 정확도를 분석할 수 있다.
또한, 항공영상보다 상대적으로 높은 해상도의 영상과 다 방향 영상을 활용한 3D 모델 구축 결과를 검토하거나 또는 상대적으로 촬영범위가 좁은 드론영상을 활용해 넓은 지역의 다중 건물 모델링을 위한 방법도 연구되었다. 보다 높은 품질의 3D 건물 모델에 대한 수요가 증가함에 따라 폐색, 왜곡 등 묘사도의 품질을 떨어트리는 요소들을 해결하기 위한 기법들도 연구되었다.
이러한 연구에도 불구하고 3D 건물 모델 구축 측면에서 드론영상은 한계점들을 가지고 있다. 드론은 항공기 대비 정확도가 낮은 소형 센서를 사용해 위치 및 자세 정화도가 낮은 영상이 취득되어 지상기준점 측량이 필수적이다. 이는 3D 모델 구축 시간과 비용을 증가시키는 요인이다.
이러한 한계를 극복하기 위해 지상기준점을 사용하지 않고 드론영상의 정확도를 향상시키기 위한 방법이나, GNSS와 Inertial 센서를 통합한 MEMS 타입 센서나 드론용 RTK GNSS 수신기를 드론에 설치하고 여기서 취득된 위치 및 자세 정보를 활용해 영상을 Direct Georeferencing 하는 방법이나, GPS 데이터를 후처리하여 향상된 위치 정확도를 적용하는 방법들이 연구되었다. 하지만, 이러한 방법들은 드론에 추가적으로 고가의 장비나 무거운 장비를 설치해야 하거나 후처리로 인해 처리 시간이 증가하게 된다.
한국등록특허 제10-1846519호 (2018.04.02)
본 발명의 일 실시예는 가능한 짧은 시간에 3차원 건물 위치 정보를 갱신하기 위해 높은 위치 정확도의 2D 건물 정보를 활용해 3차원 건물의 위치 정보를 자동 보정하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치를 제공하고자 한다.
본 발명의 일 실시예는 특정지역의 드론영상을 기초로 3D 모델을 구축하고 3D 모델의 노말 정보를 활용해 2D 정보로 변환한 후 기준 데이터와의 위치 오차 정보를 획득하여 3D 모델의 위치를 갱신할 수 있는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치를 제공하고자 한다.
실시예들 중에서, 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법은 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득하는 단계; 상기 드론영상을 기초로 상기 특정 지역에 존재하는 객체들에 대한 3차원 정보로서 3D 모델들을 구축하는 단계; 상기 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 획득하는 단계; 상기 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성하는 단계; 상기 2D 프로파일들과 상기 2D 전자지도 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출하는 단계; 및 상기 위치변환 계수를 상기 3D 모델에 적용하여 위치를 보정하는 단계;를 포함한다.
상기 2D 프로파일들을 생성하는 단계는 특정 3D 모델의 메쉬 데이터를 기초로 각 면들의 노말(Normal) 정보를 추출하는 단계; 상기 노말 정보가 소정의 기준을 충족하는 후보 면들을 결정하는 단계; 및 상기 후보 면들을 지표면에 수직으로 투영하는 평탄화(flatten) 연산을 수행하여 상기 후보 면들 각각에 대응되는 프로파일들의 집합을 상기 특정 3D 모델에 대응하는 상기 2D 프로파일로서 생성하는 단계를 포함할 수 있다.
상기 위치변환 계수를 산출하는 단계는 상기 2D 프로파일들과 상기 2D 전자지도의 2D 폴리곤들 각각에 대한 포인트 집합(point set)을 생성하는 단계를 포함할 수 있다.
상기 위치변환 계수를 산출하는 단계는 상기 2D 프로파일들 및 상기 2D 폴리곤들 각각의 경계를 따라 소정의 간격으로 이격된 포인트들을 추출하여 상기 포인트 집합(point set)을 생성하는 단계를 포함할 수 있다.
상기 위치변환 계수를 산출하는 단계는 상기 2D 폴리곤들에 대한 제1 포인트 집합을 상기 타겟 데이터로 설정하는 단계; 상기 2D 프로파일들에 대한 제2 포인트 집합을 소스(source) 데이터로 설정하는 단계; 및 기 설정된 반복 조건을 충족하는 경우 상기 소스 테이터의 각 포인트에 대해 상기 타겟 데이터에서 가장 가까운 포인트를 탐색하여 인접 집합에 추가한 다음 상기 소스 데이터에 RMS 변환 행렬 계산식에 따라 산출된 변환 행렬을 적용하는 과정을 반복적으로 수행하는 단계를 포함할 수 있다.
상기 반복 조건은 평균이동계수가 기 설정된 임계값을 초과하거나 또는 반복 횟수가 기 설정된 최대 반복 횟수 미만인 경우로 설정될 수 있다.
상기 반복적으로 수행하는 단계는 상기 RMS 변환 행렬 계산식으로서 다음의 수학식을 적용할 수 있다.
[수학식]
Figure 112021037862351-pat00001
(여기에서, T는 변환 행렬, qi는 타겟 데이터의 i번째 포인트, pi는 소스 데이터의 i번째 포인트에 해당한다.)
실시예들 중에서, 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 장치는 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득하는 드론영상 수집부; 상기 드론영상을 기초로 상기 특정 지역에 존재하는 객체들에 대한 3차원 정보로서 3D 모델들을 구축하는 모델 구축부; 상기 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 획득하는 전자지도 획득부; 상기 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성하는 프로파일 생성부; 상기 2D 프로파일들과 상기 2D 전자지도 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출하는 변환계수 산출부; 및 상기 위치변환 계수를 상기 3D 모델에 적용하여 위치를 보정하는 위치보정 수행부;를 포함한다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치는 가능한 짧은 시간에 3차원 건물 위치 정보를 갱신하기 위해 높은 위치 정확도의 2D 건물 정보를 활용해 3차원 건물의 위치 정보를 자동 보정할 수 있다.
본 발명의 일 실시예에 따른 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법 및 장치는 특정지역의 드론영상을 기초로 3D 모델을 구축하고 3D 모델의 노말 정보를 활용해 2D 정보로 변환한 후 기준 데이터와의 위치 오차 정보를 획득하여 3D 모델의 위치를 갱신할 수 있다.
도 1은 본 발명에 따른 위치보정 시스템을 설명하는 도면이다.
도 2는 도 1의 위치보정 장치의 시스템 구성을 설명하는 도면이다.
도 3은 도 1의 위치보정 장치의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법을 설명하는 순서도이다.
도 5는 정사영상과 전자지도의 중첩 표현을 설명하는 도면이다.
도 6은 본 발명에 따른 2D 건물 객체 기준 3D 건물 모델 위치보정 과정을 설명하는 흐름도이다.
도 7은 본 발명에 따른 데이터 페어링 과정을 설명하는 도면이다.
도 8은 본 발명에 따른 3D 건물의 2D 프로파일 생성 과정을 설명하는 도면이다.
도 9는 본 발명에 따른 ICP 기반 변환계수를 산정하는 과정을 설명하는 도면이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명에 따른 위치보정 시스템을 설명하는 도면이다.
도 1을 참조하면, 위치보정 시스템(100)은 사용자 단말(110), 위치보정 장치(130) 및 데이터베이스(150)를 포함할 수 있다.
사용자 단말(110)은 위치보정 시스템(100)을 이용하고 위치보정을 통해 갱신된 최신의 3D 모델 정보를 이용할 수 있는 컴퓨팅 장치에 해당할 수 있다. 사용자 단말(110)은 위치보정 장치(130)와 연결되어 동작 가능한 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다.
또한, 사용자 단말(110)은 위치보정 장치(130)와 연동하기 위한 전용 프로그램 또는 어플리케이션을 설치하여 실행할 수 있다. 이를 통해, 사용자 단말(110)은 위치보정 장치(130)에서 제공하는 다양한 서비스를 이용할 수 있다.
위치보정 장치(130)는 높은 정확도의 2D 건물 정보를 활용해 3차원 건물 정보를 빠르게 갱신하기 위하여 위치정합계수를 산출하고 이를 3D 모델에 적용하여 3D 모델의 위치를 보정할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 위치보정 장치(130)는 사용자 단말(110)과 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 사용자 단말(110)과 데이터를 송·수신할 수 있다.
데이터베이스(150)는 위치보정 장치(130)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 예를 들어, 데이터베이스(150)는 특정 지역에 관한 전자지도 및 드론영상에 관한 데이터를 저장할 수 있고, 위치보정을 위한 2D 건물 객체 및 3D 건물 모델에 관한 정보를 저장할 수 있으며, 반드시 이에 한정되지 않고, 위치보정 장치(130)가 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법을 수행하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
도 2는 도 1의 위치보정 장치의 시스템 구성을 설명하는 도면이다.
도 2를 참조하면, 위치보정 장치(130)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.
프로세서(210)는 위치보정 장치(130)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 위치보정 장치(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 위치보정 장치(130)의 CPU(Central Processing Unit)로 구현될 수 있다.
메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 위치보정 장치(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.
사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 위치보정 장치(130)는 독립적인 서버로서 수행될 수 있다.
네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.
도 3은 도 1의 위치보정 장치의 기능적 구성을 설명하는 도면이다.
도 3을 참조하면, 위치보정 장치(130)는 드론영상 수집부(310), 3D 모델 구축부(320), 전자지도 획득부(330), 2D 프로파일 생성부(340), 변환계수 산출부(350), 위치보정 수행부(360) 및 제어부(도 3에 미도시함)를 포함할 수 있다.
드론영상 수집부(310)는 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득할 수 있다. 특정 지역에 관한 최신 정보를 획득하고 보다 높은 위치 정확도를 가진 영상을 획득하기 위하여 드론이 주로 활용될 수 있으나, 반드시 이에 한정되지 않음은 물론이다. 드론영상 수집부(310)는 드론의 성능과 특정 지역의 지형적 특성을 고려하여 드론의 비행 횟수나 비행 경로 등을 설정할 수 있으며, 별도의 지상기준점이 설치되지 않은 상태에서 드론영상을 수집할 수 있다.
예를 들어, 드론영상 수집부(310)는 약 150m 높이의 촬영 고도에서 약 330m인 촬영 폭을 9개의 스트립(strip) 구간으로 나누어 촬영된 복수개의 영상을 드론영상으로 수집할 수 있다. 드론영상 수집부(310)는 필요에 따라 복수개의 영상들에 대해 소정의 전처리 동작을 수행할 수 있다.
한편, 드론영상을 획득하기 위한 드론 촬영은 2차원 정보 획득이 주목적인 경우 일반적으로 경사촬영이 포함되지 않고 지표면에 수직인 촬영만이 수행되는 반면, 3차원 정보 획득을 통한 모델 생성이 주목적인 경우 경사촬영이 동반되거나 또는 반복적인 중복촬영을 수행될 수 있다.
3D 모델 구축부(320)는 드론영상을 기초로 특정 지역에 존재하는 객체들에 대한 3차원 정보로서 3D 모델들을 구축할 수 있다. 여기에서, 3D 모델의 대상이 되는 객체는 기본적으로 건물에 해당할 수 있으나, 반드시 이에 한정되지 않고, 필요에 따라 드론영상으로부터 검출 가능하고 3차원 모델 표현이 가능한 다양한 시설들을 포함할 수 있다. 3D 모델 구축부(320)는 드론영상의 전체 영역에 대해 3D 모델을 생성할 수 있고, 드론영상에 포함된 객체별 3D 모델을 생성할 수도 있다. 예를 들어, 3D 모델 구축부(320)는 포인트 클라우드를 구성하는 x-y, y-z 및 x-z 평면에 평행하는 평면들을 추출하고, 이를 기반으로 건물 객체 별로 분리된 3D 모델을 생성할 수 있다.
전자지도 획득부(330)는 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 획득할 수 있다. 즉, 전자지도 획득부(330)는 위치보정의 기준이 되는 타겟(target) 데이터를 생성하기 위해 특정 지역에 관한 전자지도를 획득할 수 있다. 예를 들어, 전자지도 획득부(330)는 타겟 데이터로서 행정안전부에서 제공하는 도로명주소 전자지도의 건물 데이터를 사용할 수 있다. 전자지도 획득부(330)는 도로명주소 전자지도를 온라인으로 제공하는 외부 시스템에 접근하여 네트워크를 통해 특정 지역의 도로명주소 전자지도를 획득할 수 있다.
여기에서, 도로명주소 전자지도는 '도로명주소법'에 따라 부여된 도로명, 건물번호 및 상세주소를 포함할 수 있다. 도로명주소 전자지도는 전국을 대상으로 구축되어 국가에서 관리하는 데이터에 해당하며, 25cm급 디지털 항공정사영상을 이용해 도화될 수 있다. 또한, 도로명주소 전자지도는 건물, 도로, 법정구역 등 11종의 데이터로 구성될 수 있으며, 구축된 데이터는 웹으로 접근할 수 있는 도로명주소 안내 시스템에서 shp포맷의 벡터 파일로 획득 가능하여 타 데이터와의 연계 및 중첩에도 용이할 수 있다.
2D 프로파일 생성부(340)는 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성할 수 있다. 보다 구체적으로, 2D 프로파일 생성부(340)는 3D 모델들에 대해 지면 방향의 투영에 따른 2차원 정보로서 프로파일 정보를 추출할 수 있다. 서로 다른 유형의 두 데이터를 기초로 ICP 알고리즘 기반의 위치 정합 연산을 수행하기 위해서는 동일 유형의 포인트 집합(point set)으로 변환될 필요가 있으며, 3D 모델의 경우 2D 폴리곤에 대응되는 2차원 정보로서 프로파일(profile) 정보가 사용될 수 있다. 즉, 2D 프로파일은 3D 모델을 지면에 수직한 방향으로 투영한 결과 지면에 형성되는 2차원 형상에 관한 폴리곤 정보에 해당할 수 있다.
일 실시예에서, 2D 프로파일 생성부(340)는 3D 모델의 메쉬 데이터를 기초로 각 면들의 노말(Normal) 정보를 추출하고, 노말 정보가 소정의 기준을 충족하는 후보 면들을 결정하며, 후보 면들을 지표면에 수직으로 투영하는 평탄화(flatten) 연산을 수행하여 후보 면들 각각에 대응되는 프로파일들의 집합을 특정 3D 모델에 대응하는 2D 프로파일로서 생성할 수 있다.
2D 프로파일 생성부(340)는 메쉬(mesh)를 구성하는 각 면의 수직 방향 정보인 노말 정보를 이용하여 건물의 표면이 지표면에서 직각 방향인 면을 제외한 모든 면을 추출할 수 있으며, 추출된 면들을 수직 투영한 결과 지표면에 형성되는 평탄화된(Flatten) 모델 데이터를 획득하여 2D 프로파일로 생성할 수 있다.
변환계수 산출부(350)는 2D 프로파일들과 2D 전자지도 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출할 수 있다. 변환계수 산출부(350)는 지상기준점 없이 생성된 3D 모델의 2D 프로파일과 2차원 전자지도의 2D 폴리곤을 상호 매칭하여 페어링 쌍으로 묶을 수 있다. 이후 변환계수 산출부(350)는 페어링 쌍으로 묶인 데이터들을 대상으로 상호 간의 오차 정보를 수집하고, 해당 오차 정보를 이용하여 위치보정을 위한 위치변환 계수를 산출할 수 있다.
일 실시예에서, 변환계수 산출부(350)는 2D 프로파일들과 2D 전자지도의 2D 폴리곤들 각각에 대한 포인트 집합(point set)을 생성할 수 있다. 일 실시예에서, 변환계수 산출부(350)는 2D 프로파일들 및 2D 폴리곤들 각각의 경계를 따라 소정의 간격으로 이격된 포인트들을 추출하여 포인트 집합(point set)을 생성할 수 있다.
예를 들어, 변환계수 산출부(350)는 2D 프로파일 또는 2D 폴리곤의 외곽선을 따라 0.5m 간격의 포인트로 분할하여 포인트 집합을 생성할 수 있다. 2D 전자지도 상의 건물은 2D 폴리곤의 외곽선을 그대로 활용 가능하므로 별도의 추가적인 동작이 필요하지 않으며, 드론영상의 건물은 대응하는 3D 모델을 2D 프로파일로 변환하는 추가 동작을 수행한 후 2D 프로파일의 외곽선을 따라 상응하는 간격으로 포인트들을 추출함으로써 포인트 집합을 생성할 수 있다.
일 실시예에서, 변환계수 산출부(350)는 2D 폴리곤들에 대한 제1 포인트 집합을 타겟 데이터로 설정하고, 2D 프로파일들에 대한 제2 포인트 집합을 소스(source) 데이터로 설정하며, 기 설정된 반복 조건을 충족하는 경우 소스 테이터의 각 포인트에 대해 타겟 데이터에서 가장 가까운 포인트를 탐색하여 인접 집합에 추가한 다음 소스 데이터에 RMS 변환 행렬 계산식에 따라 산출된 변환 행렬을 적용하는 과정을 반복적으로 수행할 수 있다. 여기에서, 반복 조건은 평균이동계수가 기 설정된 임계값을 초과하거나 또는 반복 횟수가 기 설정된 최대 반복 횟수 미만인 경우로 설정될 수 있다.
일 실시예에서, 변환계수 산출부(350)는 ICP 기반 위치변환 계수 산출을 위한 반복적인 동작 과정에서 RMS 변환 행렬 계산식으로서 다음의 수학식을 적용할 수 있다.
[수학식]
Figure 112021037862351-pat00002
여기에서, T는 변환 행렬, qi는 타겟 데이터의 i번째 포인트, pi는 소스 데이터의 i번째 포인트에 해당한다.
위치보정 수행부(360)는 위치변환 계수를 3D 모델에 적용하여 위치를 보정할 수 있다. 즉, 위치보정 수행부(360)는 2D 폴리곤들의 위치를 기준으로 3D 모델들의 위치를 보정하는 위치보정 과정을 수행할 수 있다. 한편, 3D 건물의 수직위치는 수평위치가 결정된 이후, 해당 위치의 표고 값을 활용하여 보정할 수 있으므로, 위치보정 수행부(360)는 1차적으로 3D 건물의 수평위치를 보정하는 동작을 독립적으로 처리할 수 있다. 즉, ICP 기반 위치변환 계수의 산출 과정은 2차원 상의 위치 변경을 위해 회전과 이동만을 고려하는 강체변환의 계수들을 결정하는 과정에 해당할 수 있다.
제어부(도 3에 미도시함)는 위치보정 장치(130)의 전체적인 동작을 제어하고, 드론영상 수집부(310), 3D 모델 구축부(320), 전자지도 획득부(330), 2D 프로파일 생성부(340), 변환계수 산출부(350) 및 위치보정 수행부(360) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 4는 본 발명에 따른 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법을 설명하는 순서도이다.
도 4를 참조하면, 위치보정 장치(130)는 드론영상 수집부(310)를 통해 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득할 수 있다(단계 S410). 위치보정 장치(130)는 3D 모델 구축부(320)를 통해 드론영상을 기초로 특정 지역에 존재하는 객체들에 대한 3차원 정보로서 3D 모델들을 구축할 수 있다(단계 S420). 위치보정 장치(130)는 전자지도 획득부(330)를 통해 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 획득할 수 있다(단계 S430).
또한, 위치보정 장치(130)는 2D 프로파일 생성부(340)를 통해 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성할 수 있다(단계 S440). 위치보정 장치(130)는 변환계수 산출부(350)를 통해 2D 프로파일들과 2D 전자지도 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출할 수 있다(단계 S450). 위치보정 장치(130)는 위치보정 수행부(360)를 통해 위치변환 계수를 3D 모델에 적용하여 위치를 보정할 수 있다(단계 S460).
도 5는 정사영상과 전자지도의 중첩 표현을 설명하는 도면이다.
도 5를 참조하면, 위치보정 장치(130)는 지상기준점 없이 드론영상 만을 이용해 3D 모델을 생성하기 때문에 영상의 위치정확도는 3D 모델의 정확도에 그대로 전이될 수 있다. 따라서, 촬영된 드론영상의 초기 품질도 중요한 요소에 해당할 수 있다.
도 5의 경우, 정사영상과 전자지도 간의 중첩 표현을 통해 실제로 위치 오차의 발생 가능성을 시각적으로 도시한 것에 해당할 수 있다. 즉, 도로명주소 전자지도 상에서 정의되는 2D 폴리곤(530)은 정사영상(510)에서 검출되는 건물 위치보다 아래쪽으로 소정의 간격만큼 이격된 상태임을 확인할 수 있다.
결과적으로, 위치보정 장치(130)는 드론영상을 기초로 생성된 3D 모델의 위치 정보와 실제 전자지도 상의 위치 정보 간의 오차 정보를 이용하여 위치변환 계수를 도출할 수 있고, 이를 이용하여 도 5와 같이 실제적으로 발생 가능한 위치 오차를 보정하기 위한 위치보정 동작을 수행할 수 있다.
도 6은 본 발명에 따른 2D 건물 객체 기준 3D 건물 모델 위치보정 과정을 설명하는 흐름도이다.
도 6을 참조하면, 위치보정 장치(130)는 드론영상을 기초로 3D 랩스 등의 프로그램을 이용하여 3D 건물 모델을 생성할 수 있고, 도로명주소 전자지도를 기초로 2D 건물 객체에 관한 정보를 획득할 수 있다. 이때, 2D 건물 객체는 위치 보정을 위한 기준 데이터로 사용될 수 있다. 또한, 위치보정 장치(130)는 3D 건물 모델로부터 2D 프로파일(즉, 3D 모델 프로파일)을 추출하는 동작을 수행할 수 있다.
이후, 2D 프로파일과 2D 폴리곤 간의 페어링 동작이 수행될 수 있으며, 데이터 페어링이 완료되면 위치보정 장치(130)는 2D 프로파일과 2D 폴리곤을 기초로 점선 추출(또는 포인트 추출)을 통해 각각 포인트 집합을 생성할 수 있다. 이때, 각 포인트들은 2D 프로파일 및 2D 폴리곤의 외곽선을 따라 소정의 간격마다 추출되어 포인트 집합에 추가될 수 있다.
이후, 위치보정 장치(130)는 추출된 포인트 집합을 기초로 위치보정을 위한 위치변환 계수를 산출할 수 있다. 이때, 위치변환 계수 산출을 위해 ICP 기반의 위치정합 알고리즘이 사용될 수 있다. 위치변환 계수가 산출되면 위치보정 장치(130)는 해당 위치변환 계수를 이용하여 3D 건물 모델의 위치를 보정할 수 있다. 이를 통해, 위치보정 장치(130)는 상대적으로 높은 정확도로 구축된 2차원 기준 데이터를 기초로 상대적으로 낮은 정확도로 구축된 3차원 모델의 위치 정보를 효율적으로 개선시킬 수 있다.
도 7은 본 발명에 따른 데이터 페어링 과정을 설명하는 도면이다.
도 7을 참조하면, 위치보정 장치(130)는 지상기준점 없이 생성된 3D 모델과 국가 기준 2D 데이터를 중첩하여 데이터 페어링 결과를 시각적으로 표현할 수 있다. ICP 알고리즘을 이용한 보정계수 산출을 위해서는 페어링 과정이 선행되어야 하는데, 도 7의 경우 빨간선은 1:1로 페어링된 각 객체의 중심점을 연장한 선에 해당할 수 있다.
이때, 중심점은 각 객체가 직사각형 형태일 경우 내부 대각선의 교차점에 해당할 수 있으며, 직사각형 형태가 아닐 경우 4개 방향의 최외곽선 혹은 최외곽점을 잇는 가상의 선을 이용해 직사각형 형태로 간주하여 선택될 수 있다. 예를 들어, 3D 모델(710)에 페어링된 폴리곤의 경우 그림 (b)와 같이 4개의 모서리 방향의 최외곽점을 잇는 가상의 선들이 교차되는 지점이 중심점(730)에 해당할 수 있다.
또한, 그림 (a)에서, 대부분의 건물이 기준 2D 데이터에 비해 학교 방향으로 치우쳐 표현되어 있음을 확인할 수 있으며, 보다 높은 위치 정확도를 갖기 위해 3D 모델에 대한 위치보정이 필요한 상태임을 확인할 수 있다. 위치보정 장치(130)는 총 7개의 각 건물 모델에 대해 각각 ICP를 적용하여 위치보정을 수행할 수 있다.
도 8은 본 발명에 따른 3D 건물의 2D 프로파일 생성 과정을 설명하는 도면이다.
도 8을 참조하면, 위치보정 장치(130)는 3D 모델의 메쉬(mesh) 데이터를 구성하는 각 면의 노말(Normal) 정보를 이용하여 건물의 표면이 지표면에서 직각 방향인 면을 제외한 모든 면을 추출하여 평탄화된(Flatten) 모델 데이터인 프로파일(profile) 정보를 생성할 수 있다. 해당 과정의 처리 절차에 대한 의사코드(pseudo-code)는 도 8과 같이 표현될 수 있다.
위치보정 장치(130)는 이렇게 생성된 2D 프로파일의 외곽선을 따라 0.5m 간격의 포인트로 분할하여 포인트 집합(point set)을 생성할 수 있다. 2D 건물의 경우 2D 폴리곤의 외곽선을 그대로 사용하면 되기 때문에, 위치보정 장치(130)는 별도의 추가적인 처리 없이 원본 데이터를 프로파일과 동일한 간격의 포인트로 분할하여 포인트 집합을 생성할 수 있다.
도 9는 본 발명에 따른 ICP 기반 변환계수를 산정하는 과정을 설명하는 도면이다.
도 9를 참조하면, 위치보정 장치(130)는 ICP 기반의 위치정합 알고리즘을 이용하여 위치보정을 위한 위치변환 계수를 산출할 수 있다. 여기에서, ICP는 3D 스캐너에서 취득된 포인트 클라우드를 자동 등록(Registration)하는데 사용되는 가장 대표적인 알고리즘에 해당할 수 있다. 기본적인 ICP 알고리즘은 포인트 필터링(Point Filtering)과 이웃 선택(Neighborhood Selection)을 수행한 후, 대응점들 사이의 거리가 임계값 이내로 들어올 때까지 포인트 쌍 매칭(Point pair matching), 이상치 제거(Outlier rejection), 에러 최소화(Error minimization), 변환(transformation) 동작들이 반복될 수 있다.
ICP 알고리즘은 초기 정렬(priori alignment)이 좋은 두 포인트 클라우드를 강체(rigid) 변환으로 정합할 때 좋은 성능을 나타낼 수 있으며, 초기 정렬이 양호하지 않은 경우 지역 최소값(local minimum) 오류로 인해 잘못된 정합계수를 획득할 수 있다. 본 발명에 따른 3D 모델과 2D 건물의 위치 오차는 최대 30m, 회전은 20도 이내로 초기 정렬이 양호한 편으로 ICP 알고리즘 적용에 적합할 수 있다.
또한, 초기 3D 모델의 절대적인 위치 오차는 크지만, 모델을 구성하는 버텍스 간의 거리는 상대적으로 정확할 수 있다. 따라서 3D 모델과 기준이 되는 2D 건물 데이터는 서로 다른 방식과 장비로 취득됨에도 불구하고 스케일은 동일할 수 있다. 즉, 두 데이터를 정합하기 위하여 회전과 이동만 고려하는 강체 변환의 적용이 가능할 수 있다. 2D 건물을 기준인 타겟(Target) 데이터로 3D 모델을 소스(Source) 데이터로 정의하여 ICP 기반 정합계수를 산정하기 위한 의사코드(pseudo-code)는 도 9와 같이 표현될 수 있다.
여기에서, 정합계수 산정 알고리즘 파라미터는 다음과 같이 정의될 수 있다. d(T)는 평균이동계수, Emax는 임계값, nIteration은 반복 변수에 해당한다. nIteration은 0에서 시작될 수 있다. 또한, MaxIteration은 최대 반복 회수에 해당한다. MaxIteration의 기본값은 30회로 설정될 수 있다. 또한, T는 RMS 변환 행렬 계산식에 해당한다.
일 실시예에서, 위치보정 장치(130)는 3D 건물의 각 객체 별로 위치변환 계수를 산출할 수 있고, 각 객체 별로 산출된 위치변환 계수에 따라 위치보정 동작을 독립적으로 수행할 수 있다. 이와 달리, 위치보정 장치(130)는 3D 건물의 각 객체 별로 위치변환 계수를 산출한 다음, 평균 위치변환 계수를 산출하여 모든 객체들에 대해 위치보정 동작을 일괄적으로 수행할 수도 있다.
또한, 위치보정 장치(130)는 높은 정확도로 구축된 2D 기준 폴리곤을 기준으로 위치보정에 따른 상대적인 위치정확도 향상 정도를 측정할 수 있다. 일반적으로 3D 모델의 2D 프로파일과 2D 폴리곤의 형상이 다르기 때문에 동일한 지점을 특정해 비교하기 어려울 수 있으며, 두 지점 간의 거리 차는 평면 위치만을 의미하기 때문에 회전에 대한 보정량을 종합적으로 판단하기 어려울 수도 있다. 따라서, 위치보정 장치(130)는 공통된 두 지점에 대한 비교가 아닌 2D 폴리곤을 기준으로 2D 프로파일의 정합성 개선률로 위치보정 결과를 평가할 수 있다. 정합성 개선률은 위치보정 전과 후의 2D 프로파일과 2D 폴리곤과의 중첩률 차이를 이용해 다음의 수학식 2를 기초로 산출될 수 있다.
[수학식 2]
Figure 112021037862351-pat00003
여기에서, Pb는 위치보정 전 3D 건물 객체의 2D 프로파일, Pa는 위치보정 후 3D 건물 객체의 2D 프로파일, T는 위치보정을 위한 기준 2D 폴리곤, Rimp는 정합성 개선률(Registration improvement rate)에 해당한다.
본 발명에 따른 위치보정 장치(130)는 보다 짧은 시간에 3차원 건물 정보를 갱신하기 위해 지상기준점 없이 촬영된 드론영상을 이용해 3D 모델을 생성하고, 이를 높은 정확도의 2D 건물 정보를 활용해 자동으로 보정하기 위한 방법에 관한 것이다. 보다 구체적으로, 위치보정 장치(130)는 위치보정 대상인 3D 모델에서 생성한 2D 프로파일의 외곽선과 기준 데이터인 2D 폴리곤의 외곽선을 각각 동일 간격의 포인트 집합(point set)으로 변환할 수 있다. 그리고, 위치보정 장치(130)는 ICP 알고리즘을 기반으로 두 포인트 집합의 거리가 최소가 되는 건물별 위치변환 계수를 산정하고, 산정된 계수를 각각의 3D 모델에 적용해 최종적으로 위치보정을 완료할 수 있다.
한편, 위치보정 장치(130)는 2D 데이터를 위치보정을 위한 기준 데이터로 사용함으로써 월 단위의 빠른 갱신에도 정보의 최신성을 유지할 수 있다. 다만, 일부 3D 모델에 대응하는 2D 기준 데이터가 누락되어 있거나, 형상이 많이 상이한 경우 위치보정 장치(130)는 해당 건물과 인접한 건물의 변환계수를 적용하거나, 또는 해당 지역의 평균 변환계수를 적용하여 모든 건물의 위치를 보정할 수도 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 위치보정 시스템
110: 사용자 단말 130: 위치보정 장치
150: 데이터베이스
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 드론영상 수집부 320: 3D 모델 구축부
330: 전자지도 획득부 340: 2D 프로파일 생성부
350: 변환계수 산출부 360: 위치보정 수행부
510: 정사영상 530: 2D 폴리곤
710: 3D 모델 730: 중심점

Claims (8)

  1. 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득하는 단계;
    상기 드론영상을 기초로 상기 특정 지역에 존재하는 건물 객체들에 대한 3차원 정보로서 3D 모델들을 구축하는 단계;
    상기 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 수신하고 상기 2D 전자지도 상의 2D 건물 객체에 관한 정보를 획득하는 단계;
    상기 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성하는 단계;
    상기 2D 프로파일들과 상기 2D 건물 객체 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출하는 단계; 및
    상기 위치변환 계수를 상기 3D 모델에 적용하여 위치를 보정하는 단계;를 포함하되,
    상기 2D 프로파일들을 생성하는 단계는
    특정 3D 모델의 메쉬 데이터를 기초로 각 면들의 노말(Normal) 정보를 추출하는 단계;
    상기 노말 정보를 이용하여 해당 건물의 표면이 지표면에 직각 방향인 면을 제외한 모든 면을 추출하여 후보 면들을 결정하는 단계; 및
    상기 후보 면들을 지표면에 수직으로 투영하는 평탄화(flatten) 연산을 독립적으로 수행하여 상기 후보 면들 각각에 대응되는 프로파일들의 집합을 상기 특정 3D 모델에 대응하는 상기 2D 프로파일로서 생성하는 단계를 포함하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
  2. 삭제
  3. 제1항에 있어서, 상기 위치변환 계수를 산출하는 단계는
    상기 2D 프로파일들과 상기 2D 전자지도의 2D 폴리곤들 각각에 대한 포인트 집합(point set)을 생성하는 단계를 포함하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
  4. 제3항에 있어서, 상기 위치변환 계수를 산출하는 단계는
    상기 2D 프로파일들 및 상기 2D 폴리곤들 각각의 경계를 따라 소정의 간격으로 이격된 포인트들을 추출하여 상기 포인트 집합(point set)을 생성하는 단계를 포함하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
  5. 제4항에 있어서, 상기 위치변환 계수를 산출하는 단계는
    상기 2D 폴리곤들에 대한 제1 포인트 집합을 타겟 데이터로 설정하는 단계;
    상기 2D 프로파일들에 대한 제2 포인트 집합을 소스(source) 데이터로 설정하는 단계; 및
    기 설정된 반복 조건을 충족하는 경우 상기 소스 테이터의 각 포인트에 대해 상기 타겟 데이터에서 가장 가까운 포인트를 탐색하여 인접 집합에 추가한 다음 상기 소스 데이터에 RMS 변환 행렬 계산식에 따라 산출된 변환 행렬을 적용하는 과정을 반복적으로 수행하는 단계를 포함하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
  6. 제5항에 있어서, 상기 반복 조건은
    평균이동계수가 기 설정된 임계값을 초과하거나 또는 반복 횟수가 기 설정된 최대 반복 횟수 미만인 경우로 설정되는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
  7. 제5항에 있어서, 상기 반복적으로 수행하는 단계는
    상기 RMS 변환 행렬 계산식으로서 다음의 수학식을 적용하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 방법.
    [수학식]
    Figure 112021037862351-pat00004


    (여기에서, T는 변환 행렬, qi는 타겟 데이터의 i번째 포인트, pi는 소스 데이터의 i번째 포인트에 해당한다.)
  8. 특정 지역에 대해 지상기준점 없이 드론 촬영을 수행하여 드론영상을 획득하는 드론영상 수집부;
    상기 드론영상을 기초로 상기 특정 지역에 존재하는 건물 객체들에 대한 3차원 정보로서 3D 모델들을 구축하는 모델 구축부;
    상기 특정 지역에 관한 2차원 기준 데이터로서 2D 전자지도를 수신하고 상기 2D 전자지도 상의 2D 건물 객체에 관한 정보를 획득하는 전자지도 획득부;
    상기 3D 모델들에 대응되는 2차원 정보로서 2D 프로파일(profile)들을 생성하는 프로파일 생성부;
    상기 2D 프로파일들과 상기 2D 건물 객체 간의 페어링(pairing)을 수행하여 위치변환 계수를 산출하는 변환계수 산출부; 및
    상기 위치변환 계수를 상기 3D 모델에 적용하여 위치를 보정하는 위치보정 수행부;를 포함하되,
    상기 프로파일 생성부는
    특정 3D 모델의 메쉬 데이터를 기초로 각 면들의 노말(Normal) 정보를 추출하는 단계;
    상기 노말 정보를 이용하여 해당 건물의 표면이 지표면에 직각 방향인 면을 제외한 모든 면을 추출하여 후보 면들을 결정하는 단계; 및
    상기 후보 면들을 지표면에 수직으로 투영하는 평탄화(flatten) 연산을 독립적으로 수행하여 상기 후보 면들 각각에 대응되는 프로파일들의 집합을 상기 특정 3D 모델에 대응하는 상기 2D 프로파일로서 생성하는 단계를 수행하는 것을 특징으로 하는 건물형상정합 알고리즘을 이용한 3D 모델 위치보정 장치.
KR1020210041923A 2021-03-31 2021-03-31 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치 KR102528951B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210041923A KR102528951B1 (ko) 2021-03-31 2021-03-31 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210041923A KR102528951B1 (ko) 2021-03-31 2021-03-31 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220135789A KR20220135789A (ko) 2022-10-07
KR102528951B1 true KR102528951B1 (ko) 2023-05-08

Family

ID=83595749

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210041923A KR102528951B1 (ko) 2021-03-31 2021-03-31 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102528951B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993923B (zh) * 2023-09-22 2023-12-26 长沙能川信息科技有限公司 换流站三维模型制作方法、系统、计算机设备和存储介质
CN117132744B (zh) * 2023-10-27 2024-02-09 腾讯科技(深圳)有限公司 虚拟场景的构建方法、装置、介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349375B1 (ko) 2013-02-01 2014-01-13 주식회사 한국에스지티 3차원 지리정보시스템용 건물의 자동 3차원 공간영상 자동도화방법
JP6345339B2 (ja) 2015-03-23 2018-06-20 三菱電機株式会社 画像補正装置および画像補正方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101617078B1 (ko) * 2014-02-24 2016-04-29 주식회사 한화 무인 항공기 영상과 지도 영상에 대한 영상 정합 장치 및 방법
KR101846519B1 (ko) 2017-10-30 2018-04-09 (주)국토해양기술 지형지물의 기준점 설정 위치별 이미지의 공간영상도화 오차보정 시스템
KR102195168B1 (ko) * 2017-11-21 2020-12-24 한국전자통신연구원 3차원 복원 지형 정합 방법 및 그 장치
KR102127679B1 (ko) * 2018-11-15 2020-06-29 주식회사 스트리스 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349375B1 (ko) 2013-02-01 2014-01-13 주식회사 한국에스지티 3차원 지리정보시스템용 건물의 자동 3차원 공간영상 자동도화방법
JP6345339B2 (ja) 2015-03-23 2018-06-20 三菱電機株式会社 画像補正装置および画像補正方法

Also Published As

Publication number Publication date
KR20220135789A (ko) 2022-10-07

Similar Documents

Publication Publication Date Title
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US8427505B2 (en) Geospatial modeling system for images and related methods
CN109238239B (zh) 基于航空摄影的数字测量三维建模方法
Akca et al. Quality assessment of 3D building data
CN113192193B (zh) 基于Cesium三维地球框架的高压输电线路走廊三维重建方法
CN106599119B (zh) 一种影像数据的存储方法和装置
Zeybek Accuracy assessment of direct georeferencing UAV images with onboard global navigation satellite system and comparison of CORS/RTK surveying methods
KR102528951B1 (ko) 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치
JP7440005B2 (ja) 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム
JP6238101B2 (ja) 数値表層モデル作成方法、及び数値表層モデル作成装置
KR100904078B1 (ko) 항공 사진의 영상정합을 이용한 3차원 공간 정보 생성 시스템 및 방법
CN111024089A (zh) 一种基于bim与计算机视觉技术的室内定位导航方法
Bshouty et al. Towards the generation of 3D OpenStreetMap building models from single contributed photographs
Wang et al. True orthophoto generation using line segment matches
US20100066740A1 (en) Unified spectral and Geospatial Information Model and the Method and System Generating It
Bitelli et al. Integrated use of remote sensed data and numerical cartography for the generation of 3D city models
Chen et al. Rapid 3d modeling using photogrammetry applied to google earth
Patias et al. Applications in cultural heritage documentation
Chiabrando et al. Performance evaluation of cots uav for architectural heritage documentation. A test on s. giuliano chapel in savigliano (cn)–Italy
Srinivas et al. Digital aerial orthobase for cadastral mapping
KR102426282B1 (ko) 도로선형 기반의 3차원 공간객체 위치보정 방법
Costantino et al. Point cloud management through the realization of the intelligent cloud viewer software
Luo et al. The texture extraction and mapping of buildings with occlusion detection
KR101114904B1 (ko) 도화원도와 항공 레이저 측량 데이터를 이용한 도시공간정보 구축 시스템 및 그 방법
Sadeq City modelling using geoinformatics: a case study of the college of engineering campus, Salahaddin University, Iraq

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right