KR20230082185A - 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법 - Google Patents

고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법 Download PDF

Info

Publication number
KR20230082185A
KR20230082185A KR1020210169865A KR20210169865A KR20230082185A KR 20230082185 A KR20230082185 A KR 20230082185A KR 1020210169865 A KR1020210169865 A KR 1020210169865A KR 20210169865 A KR20210169865 A KR 20210169865A KR 20230082185 A KR20230082185 A KR 20230082185A
Authority
KR
South Korea
Prior art keywords
river
visualization
point cloud
data
topography
Prior art date
Application number
KR1020210169865A
Other languages
English (en)
Other versions
KR102702260B1 (ko
Inventor
정윤재
최영철
김경섭
Original Assignee
(주) 지오씨엔아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 지오씨엔아이 filed Critical (주) 지오씨엔아이
Priority to KR1020210169865A priority Critical patent/KR102702260B1/ko
Publication of KR20230082185A publication Critical patent/KR20230082185A/ko
Application granted granted Critical
Publication of KR102702260B1 publication Critical patent/KR102702260B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 의한 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법은, 빈번하게 발생하는 하천 지형의 변화를 효과적으로 탐지할 수 있는 기술에 관한 것이다.

Description

고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법 {3D visualization system and method for river topography using image having high resolution and LiDAR point cloud data}
본 발명은 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법에 관한 것으로, 하천 지형의 변화를 3차원으로 구현할 수 있는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법에 관한 것이다.
하천 지형의 경우, 홍수, 가뭄, 수질 오염 등으로 인해 지형 변화가 빈번하게 발생하고 이로 인해 재산 피해/인명 피해가 발생할 가능성이 높다.
그렇기 때문에, 이러한 하천 지형의 변화를 탐지하고 이에 대한 방안을 설립하는 것이 중요하다.
그렇지만, 기존 연구의 경우, 하천 지형의 변화를 2차원으로 구현하고 있기 때문에, 입체적인 하천 지형 변화를 탐지하는데 한계가 존재한다.
이와 관련해서, 국내등록특허 제10-1307232호("하천홍수 상황인지 시스템 및 컴퓨터로 판독 가능한 기록매체")에서는 하천지형 보간 기법을 적용하여 생성된 정밀 하천지형 자료를 기초로 하천에서 발생 가능한 상황을 인지하고 이해하여 미래를 예측하는 기술을 개시하고 있다.
한국등록특허 제10-1307232호(등록일 2013.09.05.)
따라서 본 발명은 상기한 바와 같은 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 주기적으로 획득되는 하천 지형에서의 고해상도 영상과 LiDAR 점군 데이터를 기반으로, 입체적인 3차원 하천 지형 시각화를 구현함으로서, 하천 지형에서 빈번하게 발생하는 변화를 용이하게 탐지할 수 있는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법에 관한 것이다.
상기한 바와 같은 문제점을 해결하기 위한 본 발명의 일 실시예에 의한 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템은, 설정된 하천 영역의 촬영 영상을 입력받아, 인공지능 학습을 위한 특성치 정보를 추출하는 학습 준비부(100), 상기 특성치 정보를 이용하여, 저장되어 있는 인공지능 알고리즘의 학습 처리를 수행하고, 학습 결과 모델을 이용하여 토지 피복도 데이터를 생성하는 학습 처리부(200), 상기 토지 피복도 데이터와 입력되는 하천 관련 지형의 LiDAR 점군 데이터를 중첩하여, DSM(Digital Surface Model)을 생성하는 DSM 생성부(300) 및 상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 상기 DSM 생성부(300)에 의해 입력되는 LiDAR 점군 데이터와 동일한 영역에 대한 촬영 영상을 상기 획득한 3차원 메쉬 정보에 맵핑하여, 상기 촬영 영상의 3차원 시각화를 수행하는 시각화 수행부(400)를 포함하는 것이 바람직하다.
더 나아가, 상기 학습 준비부(100)는 입력되는 상기 촬영 영상을 분석하여, 하천 영역과 비하천 영역을 구분하여 특성치 정보를 추출하고, 상기 학습 처리부(200)는 상기 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여, 하천 영역과 비하천 영역이 구분되는 상기 토지 피복도 데이터를 출력받는 것이 바람직하다.
더 나아가, 상기 DSM 생성부(300)는 하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보를 적용하고, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보를 적용하되, TIN(Triangulated Irregular Networks) 보간법을 이용하여 상기 DSM을 생성하는 것이 바람직하다.
더 나아가, 상기 시각화 수행부(400)는 상기 DSM에 포함되어 있는 좌표를 읽어들여, 해당하는 좌표 위치를 연결하여 상기 3차원 메쉬 정보를 획득하고, 상기 3차원 메쉬 정보를 가시화한 후, 상기 촬영 영상을 맵핑하여, 상기 촬영 영상에 대한 3차원 시각화를 수행하는 것이 바람직하다.
더 나아가, 상기 시각화 수행부(400)는 외부 입력에 따라, 3차원 시각화 데이터의 시각화 형태를 변경하여 제공하는 것이 바람직하다.
본 발명의 또 다른 일 실시예에 따른 본 발명의 또 다른 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템에 의해 각 단계가 수행되는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법에 있어서, 학습 준비부에서, 설정된 하천 영역의 촬영 영상을 입력받는 데이터 입력 단계(S100), 학습 준비부에서, 상기 데이터 입력 단계(S100)에 의해 입력받은 상기 촬영 영상을 분석하여, 인공지능 학습을 위한 특성치 정보를 추출하는 특성치 추출 단계(S200), 학습 처리부에서, 저장되어 있는 인공지능 알고리즘을 이용하여 상기 특성치 추출 단계(S200)에 의한 상기 특성치 정보를 학습 처리하는 학습 처리 단계(S300), 학습 처리부에서, 상기 학습 처리 단계(S300)에 의한 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하고, 토지 피복도 데이터를 출력받는 데이터 생성 단계(S400), DSM 생성부에서, 상기 데이터 생성 단계(S400)에 의한 상기 토지 피복도 데이터를 전달받아, 상기 토지 피복도 데이터와 상기 하천 관련 지역의 LiDAR 점군 데이터를 중첩하여 DSM(Digital Surface Model)을 생성하는 DSM 생성 단계(S500) 및 시각화 수행부에서, 상기 DSM 생성 단계(S500)에 의한 상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 획득한 상기 3차원 메시 정보에 상기 하천 관련 지역의 촬영 영상을 맵핑하여, 촬영 영상의 3차원 시각화를 수행하는 3차원 시각화 단계(S600)를 포함하는 것이 바람직하다.
더 나아가, 상기 특성치 추출 단계(S200)는 상기 촬영 영상을 분석하여, 하천 영역과 비하천 영역을 구분하고, 구분한 각 영역에 대한 특성치 정보를 추출하는 것이 바람직하다.
더 나아가, 상기 데이터 생성 단계(S400)는 상기 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여, 하천 영역와 비하천 영역이 구분되는 상기 토지 피복도 데이터를 출력받는 것이 바람직하다.
더 나아가, 상기 DSM 생성 단계(S500)는 하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보를 적용하고, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보를 적용하되, TIN(Triangulated Irregular Networks) 보간법을 이용하여 상기 DSM을 생성하는 것이 바람직하다.
더 나아가, 상기 3차원 시각화 단계(S600)는 상기 DSM에 포함되어 있는 좌표를 읽어들여, 해당하는 좌표 위치를 연결하여 상기 3차원 메쉬 정보를 획득하고, 상기 3차원 메쉬 정보를 가시화한 후, 상기 촬영 영상을 맵핑하여, 상기 촬영 영상에 대한 3차원 시각화를 수행하되, 외부 입력에 따라, 시각화 형태를 변경하여 3차원 시각화 데이터를 생성하는 것이 바람직하다.
본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법은, 3차원 시뮬레이션을 통해서 입체적으로 하천 지형의 변화에 대한 탐지를 수행할 수 있는 장점이 있다.
상세하게는, 주기적으로 획득되는 하천 지형에서의 고해상도 영상과 LiDAR 점군 데이터를 기반으로, 입체적인 3차원 하천 지형 시각화를 구현함으로서, 하천 지형에서 빈번하게 발생하는 변화를 용이하게 탐지할 수 있다.
도 1은 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템을 나타낸 구성 예시도이다.
도 2 내지 도 5는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법에 의한 시뮬레이션 과정을 나타낸 출력 예시도이다.
도 6은 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법을 나타낸 순서 예시도이다.
이하 첨부한 도면들을 참조하여 본 발명의 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.
본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법은, 드론 등에 구비되어 있는 다양한 센서로부터 센싱되는 데이터들을 활용하여, 하천 지형에 대해 맞춤형 3차원 시각화 데이터를 생성할 수 있는 기술에 관한 것이다.
즉, 최근들어 현실 속 사물과 동일한 상황 및 현상을 컴퓨터 등의 연산 처리 수단을 통해 구현함으로써, 현실에서 발생할 수 있는 동적 상황을 시뮬레이션할 수 있는 디지털 트윈 기술이 개발되고 있다.
하천 지형의 경우, 홍수, 가뭄, 수질 오염 등으로 인해 지형 변화가 빈번하게 발생하지만 종래의 하천 지형 연구인 2차원 시뮬레이션을 통해서는 입체적으로 하천 지형의 변화에 대한 탐지의 한계가 존재한다. 이러한 단점을 해소하기 위하여, 상술한 디지털 트윈 기술을 반영하여, 3차원 시뮬레이션을 통해서 입체적으로 하천 지형의 변화에 대한 탐지를 수행할 수 있는 기술에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템을 나타낸 구성 예시도로서, 도 1을 참고로 하여 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템을 자세히 설명한다.
본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템은 도 1에 도시된 바와 같이, 학습 준비부(100), 학습 처리부(200), DSM 생성부(300) 및 시각화 수행부(400)를 포함하여 구성되는 것이 바람직하다. 각 구성들은 컴퓨터 등과 같이 MCU를 포함하는 연산처리수단을 통해서 동작이 수행되는 것이 바람직하며, 각각의 연산처리수단 또는 하나의 연산처리수단을 통해서 동작되는 것이 바람직하다.
각 구성들에 대해서 자세히 알아보자면,
상기 학습 준비부(100)는 사전에 설정된 하천 영역의 촬영 영상을 입력받아, 인공지능 학습을 위한 특성치 정보를 추출하는 것이 바람직하다.
상세하게는, 상기 학습 준비부(100)는 입력되는 하천 영역의 촬영 영상 데이터를 분석하여, 하천 영역과 비하천 영역으로 구분하는 것이 바람직하다. 이 후, 구분한 각 영역 별(하천 영역과 비하천 영역) 특성치 정보(훈련 샘플 데이터 등)를 소정 개수 이상 추출하는 것이 바람직하다.
더불어, 상기 학습 준비부(100)에서 입력받는 상기 촬영 영상의 설정 영역은 반드시 3차원 시각화를 원하는 지역으로 한정하는 것이 아니며, 학습을 위한 다양한 하천 유역의 촬영 영상인 것이 가장 바람직하다. 또한, 상기 촬영 영상은 상술한 바와 같이, 드론 등에 구비되어 있는 센서를 통한 센싱 데이터로서, 가능하면 고해상도의 촬영 영상 데이터인 것이 바람직하다. 물론, 고해상도의 정의를 위한 해상도 정도를 한정하는 것은 아니며, 다만, 추후에 생성되는 하천 지형에 대한 3차원 시각화 데이터가 충분히 요구되는 하천 주변의 다양한 객체 정보를 인지할 수 있을 정도의 해상도를 갖고 있는 것이 바람직하다.
상기 학습 처리부(200)는 상기 학습 준비부(100)에서 추출한 각 영역 별 특성치 정보를 이용하여, 저장되어 있는 인공지능 알고리즘의 학습 처리를 수행하는 것이 바람직하다.
이 때, 저장되어 있는 인공지능 알고리즘으로는 심층 신경망(DNN, Deep Neural Network)을 이용하는 것이 바람직하며, 심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형 관계를 학습하는 것을 특징으로 한다.
상기 학습 처리부(200)는 각 영역 별 특성치 정보의 학습 처리를 토대로 학습 결과 모델을 생성하며, 상기 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여 토지 피복도 데이터를 출력받는 것이 바람직하다.
또한, 상기 하천 관련 지형의 촬영 영상은 도 2의 a)에 도시된 바와 같이, 이를 토대로 3차원 시각화가 이루어지는 만큼 실제 3차원 시각화를 원하는 하천 지형의 촬영 영상 데이터로 한정하여 입력받는 것이 바람직하며, 이 역시도 가능하면 고해상도의 촬영 영상 데이터인 것이 바람직하다. 물론, 고해상도의 정의를 위한 해상도 정도를 한정하는 것은 아니며, 다만, 추후에 생성되는 하천 지형에 대한 3차원 시각화 데이터가 충분히 요구되는 하천 주변의 다양한 객체 정보를 인지할 수 있을 정도의 해상도를 갖고 있는 것이 바람직하다.
이 때, 출력되는 상기 토지 피복도 데이터는 도 2의 b)에 도시된 바와 같이, 학습 데이터가 하천 영역과 비하천 영역으로 구분되어 있는 만큼, 하천 영역과 비하천 영역으로 구분되는 상기 토지 피복도 데이터를 출력받게 된다.
상기 DSM 생성부(300)는 상기 학습 처리부(200)로부터 출력받은 상기 토지 피복도 데이터와 입력되는 하천 관련 지형의 LiDAR 점군 데이터를 중첩하여, DSM(Digital Surface Model)을 생성하는 것이 바람직하다.
상기 DSM 생성부(300)로 입력되는 하천 관련 지형의 LiDAR 점군 데이터는 도 3의 a)와 같으며, 실제 3차원 시각화를 원하는 하천 지형의 LiDAR 점군 데이터로 한정하여 입력받는 것이 바람직하다. 좀 더 한정하자면, 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터와 일치되는 영영의 LiDAR 점군 데이터인 것이 가장 바람직하다.
DSM이란, 수치 표면 모형으로 실세계의 모든 정보(일 예를 들자면, 지형, 수목, 건물, 인공 구조물 등)를 표현하는 수치 모형이다. 상세하게는, 원치 자료를 기준점으로 하여 기준 좌표계에 의한 3차원(x, y, z) 좌표로 조정한 자료로서, 지면 및 지표 피복물에 대한 점 자료를 포함하게 된다. 즉, 인공지물과 식생이 있는 지구 표면의 표고를 표현하기 위해, 일정 간격의 격자점마다 수치로 기록한 표고 모형이다.
이러한 DSM을 생성하기 위하여, 상기 DSM 생성부(300)는 하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보(minimum elevation)를 적용하는 것이 바람직하며, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보(mean elevation)를 적용하여 도 3의 c)와 같은 DSM을 생성하게 된다. 이 때, 상기 DSM 생성부(300)는 도 3의 b)에 도시된 바와 같이, TIN(Triangulated Irregular Networks) 보간법을 적용하여, 상기 DSM을 생성하는 것이 가장 바람직하다.
여기서, LiDAR 점군 데이터란, 3차원 스캔이 가능한 라이다를 이용하여 획득한 점군 데이터(point clouds)로서, 이 역시도 드론 등에 구비되어 있는 센서를 통한 센싱 데이터 중 하나인 것이 바람직하다.
더불어, TIN 보간법은, 불규칙적인 x, y좌표와 z값의 간격으로부터 계산된 삼각형의 집합으로서 서로 겹치지 않게 상기 토지 피복도 데이터와 LiDAR 점군 데이터의 중첩을 수행하게 된다.
상기 시각화 수행부(400)는 상기 DSM 생성부(300)에 의한 상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 상기 DSM 생성부(300)에 의해 입력되는 상기 LiDAR 점군 데이터와 동일한 영역에 대한 촬영 영상, 다시 말하자면, 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터를 상기 획득한 3차원 메쉬 정보에 맵핑하는 것이 바람직하다.
이러한 맵핑 결과에 따라 상기 촬영 영상, 즉, 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터의 3차원 시각화 데이터가 생성되게 된다.
즉, 상기 시각화 수행부(400)는 3차원 공간정보 기반 동적 정보 시뮬레이션이 가능한 상용 Unity 엔진을 활용하여, 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터와 상기 DSM을 중첩하여 도 4와 같은 하천 지형의 3차원 시각화 모듈(오브젝트)을 생성할 수 있다.
상세하게는, 상기 시각화 수행부(400)는 3차원 공간정보 기반 동적 정보 시뮬레이션이 가능한 상용 Unity 엔진을 활용하여, 상기 DSM에 포함되어 있는 좌표(x, y, z)를 읽어들여, 다시 말하자면, x, y, z의 좌표가 담긴 TXT형식의 DSM을 읽어들여, 해당하는 위치에 점을 찍고 이들을 순서대로 연결함으로써, 메쉬를 구성하게 된다.
상기 시각화 수행부(400)는 메쉬 구성시, 균일한 삼각형의 집합/배열을 가지도록 반복하여 생성하는 것이 바람직하다. 이 후, 상기 시각화 수행부(400)는 구성된 메쉬 구조에 속성(MeshRenderer)을 지정하여 메쉬 구조의 시각화가 이루어질 수 있도록 한다. 이 후, 가시화된 메쉬 구조에 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터를 맵핑하게 된다.
이 때, 맵핑 시, DSM의 해상도와 촬영 영상 데이터의 해상도에 고려하여, 촬영 영상 데이터의 픽셀을 변경하여 시각적인 효과와 성능의 효율적인 지점을 찾아 설정하는 것이 바람직하다.
상기 시각화 수행부(400)는 생성한 상기 3차원 시각화 모듈을 외부 사용자에게 전달하여 3차원으로 볼 수 있도록 읽어들인 DSM의 라인과 메쉬의 복잡도에 따라 UV 좌표를 생성하게 된다.
생성된 오브젝트의 삼각형 구조를 체크하여, 메쉬 구조와 UV 좌표의 형태가 잘 정합되었는지 확인할 수 있으며, 정합이 제대로 이루어지지 않았을 경우, 최종 생성된 오브젝트를 회전 또는 확대할 때 맵핑이 제대로 이루어지지 않은 부분이 나타날 수 있다.
아울러, 상기 시각화 수행부(400)는 도 5에 도시된 바와 같이, 사용자의 선택에 따라 도 5의 a)에 도시된 바와 같이, Wireframe 텍스쳐 형태로 3차원 시각화 모듈을 제공받거나 또는, 도 5의 b)에 도시된 바와 같이 DEM(Digital Elevation Model) 형태로 3차원 시각화 모듈을 제공받을 수 있다.
Wireframe 텍스쳐 형태로 제공받을 경우, 메쉬 구조를 그대로 시각화할 수 있으며, DEM 형태로 제공받을 경우, 고해상도 영상이 매핑된 meshrenderer 텍스처를 시각화할 수 있다.
도 6은 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법을 나타낸 순서 예시도로서, 도 2를 참조로 하여 본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법을 상세히 설명한다.
본 발명의 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법은 도 6에 도시된 바와 같이, 데이터 입력 단계(S100), 특성치 추출 단계(S200), 학습 처리 단계(S300), 데이터 생성 단계(S400), DSM 생성 단계(S500) 및 3차원 시각화 단계(S600)를 포함하는 것이 바람직하다. 또한, 컴퓨터로 구현되는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템에 의해 각 단계가 수행되게 된다.
각 단계에 대해서 자세히 알아보자면,
상기 데이터 입력 단계(S100)는 상기 학습 준비부(100)에서, 사전에 설정된 하천 영역의 촬영 영상을 입력받게 된다. 상기 데이터 입력 단계(S100)에 의해 입력받는 상기 촬영 영상의 설정 영역은 반드시 3차원 시각화를 원하는 지역으로 한정하는 것이 아니며, 학습을 위한 다양한 하천 유역의 촬영 영상인 것이 가장 바람직하다. 또한, 상기 촬영 영상은 상술한 바와 같이, 드론 등에 구비되어 있는 센서를 통한 센싱 데이터로서, 가능하면 고해상도의 촬영 영상 데이터인 것이 바람직하다. 물론, 고해상도의 정의를 위한 해상도 정도를 한정하는 것은 아니며, 다만, 추후에 생성되는 하천 지형에 대한 3차원 시각화 데이터가 충분히 요구되는 하천 주변의 다양한 객체 정보를 인지할 수 있을 정도의 해상도를 갖고 있는 것이 바람직하다.
상기 특성치 추출 단계(S200)는 상기 학습 준비부(100)에서, 상기 데이터 입력 단계(S100)에 의해 입력받은 상기 촬영 영상 데이터를 분석하여, 인공지능 학습을 위한 특성치 정보를 추출하게 된다.
상세하게는, 상기 특성치 추출 단계(S200)는 상기 데이터 입력 단계(S100)에 의해 입력받은 하천 영역의 촬영 영상 데이터를 분석하여, 하천 영역과 비하천 영역으로 구분하고, 구분한 각 영역 별(하천 영역과 비하천 영역) 특성치 정보(훈련 샘플 데이터 등)를 소정 개수 이상 추출하게 된다.
상기 학습 처리 단계(S300)는 상기 학습 처리부(200)에서, 저장되어 있는 인공지능 알고리즘을 이용하여, 상기 특성치 추출 단계(S200)에 의해 추출한 각 영역 별 특성치 정보에 대한 학습 처리를 수행하게 된다.
이 때, 저장되어 있는 인공지능 알고리즘으로는 심층 신경망(DNN, Deep Neural Network)을 이용하는 것이 바람직하며, 심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형 관계를 학습하는 것을 특징으로 한다.
상기 학습 처리 단계(S300)는 학습 처리 수행 결과에 의해, 각 영역 별 특성치 정보의 학습 처리를 토대로 학습 결과 모델을 생성하게 된다.
상기 데이터 생성 단계(S400)는 상기 학습 처리부(200)에서, 상기 학습 처리 단계(S300)에 의한 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여 토지 피복도 데이터를 출력받게 된다.
상세하게는, 상기 하천 관련 지형의 촬영 영상은 도 2의 a)에 도시된 바와 같이, 이를 토대로 3차원 시각화가 이루어지는 만큼 실제 3차원 시각화를 원하는 하천 지형의 촬영 영상 데이터로 한정하여 입력받는 것이 바람직하며, 이 역시도 가능하면 고해상도의 촬영 영상 데이터인 것이 바람직하다. 물론, 고해상도의 정의를 위한 해상도 정도를 한정하는 것은 아니며, 다만, 추후에 생성되는 하천 지형에 대한 3차원 시각화 데이터가 충분히 요구되는 하천 주변의 다양한 객체 정보를 인지할 수 있을 정도의 해상도를 갖고 있는 것이 바람직하다.
상기 데이터 생성 단계(S400)에 의해 출력되는 상기 토지 피복도 데이터는 도 2의 b)에 도시된 바와 같이, 학습 데이터가 하천 영역과 비하천 영역으로 구분되어 있는 만큼, 하천 영역과 비하천 영역으로 구분되는 상기 토지 피복도 데이터를 출력받게 된다.
상기 DSM 생성 단계(S500)는 상기 DSM 생성부(300)에서, 상기 데이터 생성 단계(S400)에 의한 상기 토지 피복도 데이터를 전달받아, 상기 토지 피복도 데이터와 입력되는 하천 관련 지형의 LiDAR 점군 데이터를 중첩하여, DSM(Digital Surface Model)을 생성하게 된다.
여기서, 입력되는 하천 관련 지형의 LiDAR 점군 데이터는 도 3의 a)와 같으며, 실제 3차원 시각화를 원하는 하천 지형의 LiDAR 점군 데이터로 한정하여 입력받는 것이 바람직하다. 좀 더 한정하자면, 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터와 일치되는 영영의 LiDAR 점군 데이터인 것이 가장 바람직하다.
또한, DSM이란, 수치 표면 모형으로 실세계의 모든 정보(일 예를 들자면, 지형, 수목, 건물, 인공 구조물 등)를 표현하는 수치 모형이다. 상세하게는, 원치 자료를 기준점으로 하여 기준 좌표계에 의한 3차원(x, y, z) 좌표로 조정한 자료로서, 지면 및 지표 피복물에 대한 점 자료를 포함하게 된다. 즉, 인공지물과 식생이 있는 지구 표면의 표고를 표현하기 위해, 일정 간격의 격자점마다 수치로 기록한 표고 모형이다.
상기 DSM 생성 단계(S500)는 하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보(minimum elevation)를 적용하는 것이 바람직하며, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보(mean elevation)를 적용하여 도 3의 c)와 같은 DSM을 생성하게 된다. 뿐만 아니라, 상기 DSM 생성 단계(S500)는 도 3의 b)에 도시된 바와 같이, TIN(Triangulated Irregular Networks) 보간법을 적용하여, 상기 DSM을 생성하게 된다.
여기서, LiDAR 점군 데이터란, 3차원 스캔이 가능한 라이다를 이용하여 획득한 점군 데이터(point clouds)로서, 이 역시도 드론 등에 구비되어 있는 센서를 통한 센싱 데이터 중 하나인 것이 바람직하다.
더불어, TIN 보간법은, 불규칙적인 x, y좌표와 z값의 간격으로부터 계산된 삼각형의 집합으로서 서로 겹치지 않게 상기 토지 피복도 데이터와 LiDAR 점군 데이터의 중첩을 수행하게 된다.
상기 3차원 시각화 단계(S600)는 상기 시각화 수행부(400)에서, 상기 DSM 생성 단계(S500)에 의해 생성한 상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 상기 DSM 생성 단계(S500)에 의해 입력되는 하천 관련 지형의 LiDAR 점군 데이터와 동일한 영역에 대한 촬영 영상, 다시 말하자면, 상기 데이터 생성 단계(S400)에 의해 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터를 상기 획득한 3차원 메쉬 정보에 맵핑하게 된다.
이러한 맵핑 결과에 따라 상기 촬영 영상, 즉, 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터의 3차원 시각화 데이터가 생성되게 된다.
상세하게는, 상기 3차원 시각화 단계(S600)는 3차원 공간정보 기반 동적 정보 시뮬레이션이 가능한 상용 Unity 엔진을 활용하여, 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터와 상기 DSM을 중첩하여 도 4와 같은 하천 지형의 3차원 시각화 모듈(오브젝트)을 생성할 수 있다.
이를 위해, 상기 3차원 시각화 단계(S600)는 3차원 공간정보 기반 동적 정보 시뮬레이션이 가능한 상용 Unity 엔진을 활용하여, 상기 DSM에 포함되어 있는 좌표(x, y, z)를 읽어들여, 다시 말하자면, x, y, z의 좌표가 담긴 TXT형식의 DSM을 읽어들여, 해당하는 위치에 점을 찍고 이들을 순서대로 연결함으로써, 메쉬를 구성하게 된다.
상기 시각화 수행부(400)는 메쉬 구성시, 균일한 삼각형의 집합/배열을 가지도록 반복하여 생성하는 것이 바람직하다. 이 후, 상기 시각화 수행부(400)는 구성된 메쉬 구조에 속성(MeshRenderer)을 지정하여 메쉬 구조의 시각화가 이루어질 수 있도록 한다. 이 후, 가시화된 메쉬 구조에 상기 학습 처리부(200)에서 상기 학습 결과 모델에 입력한 상기 하천 관련 지형의 촬영 영상 데이터를 맵핑하게 된다.
이 때, 맵핑 시, DSM의 해상도와 촬영 영상 데이터의 해상도에 고려하여, 촬영 영상 데이터의 픽셀을 변경하여 시각적인 효과와 성능의 효율적인 지점을 찾아 설정하는 것이 바람직하다.
더불어, 상기 3차원 시각화 단계(S600)는 생성한 상기 3차원 시각화 모듈을 외부 사용자에게 전달하여 3차원으로 볼 수 있도록 읽어들인 DSM의 라인과 메쉬의 복잡도에 따라 UV 좌표를 생성하게 된다.
생성된 오브젝트의 삼각형 구조를 체크하여, 메쉬 구조와 UV 좌표의 형태가 잘 정합되었는지 확인할 수 있으며, 정합이 제대로 이루어지지 않았을 경우, 최종 생성된 오브젝트를 회전 또는 확대할 때 맵핑이 제대로 이루어지지 않은 부분이 나타날 수 있다.
또한, 상기 3차원 시각화 단계(S600)는 도 5에 도시된 바와 같이, 사용자의 선택에 따라 도 5의 a)에 도시된 바와 같이, Wireframe 텍스쳐 형태로 3차원 시각화 모듈을 제공받거나 또는, 도 5의 b)에 도시된 바와 같이 DEM(Digital Elevation Model) 형태로 3차원 시각화 모듈을 제공받을 수 있다.
Wireframe 텍스쳐 형태로 제공받을 경우, 메쉬 구조를 그대로 시각화할 수 있으며, DEM 형태로 제공받을 경우, 고해상도 영상이 매핑된 meshrenderer 텍스처를 시각화할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 학습 준비부
200 : 학습 처리부
300 : DSM 생성부
400 : 시각화 수행부

Claims (10)

  1. 설정된 하천 영역의 촬영 영상을 입력받아, 인공지능 학습을 위한 특성치 정보를 추출하는 학습 준비부(100);
    상기 특성치 정보를 이용하여, 저장되어 있는 인공지능 알고리즘의 학습 처리를 수행하고, 학습 결과 모델을 이용하여 토지 피복도 데이터를 생성하는 학습 처리부(200);
    상기 토지 피복도 데이터와 입력되는 하천 관련 지형의 LiDAR 점군 데이터를 중첩하여, DSM(Digital Surface Model)을 생성하는 DSM 생성부(300); 및
    상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 상기 DSM 생성부(300)에 의해 입력되는 LiDAR 점군 데이터와 동일한 영역에 대한 촬영 영상을 상기 획득한 3차원 메쉬 정보에 맵핑하여, 상기 촬영 영상의 3차원 시각화를 수행하는 시각화 수행부(400);
    를 포함하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템.
  2. 제 1항에 있어서,
    상기 학습 준비부(100)는
    입력되는 상기 촬영 영상을 분석하여, 하천 영역과 비하천 영역을 구분하여 특성치 정보를 추출하고,
    상기 학습 처리부(200)는
    상기 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여, 하천 영역과 비하천 영역이 구분되는 상기 토지 피복도 데이터를 출력받는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템.
  3. 제 2항에 있어서,
    상기 DSM 생성부(300)는
    하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보를 적용하고, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보를 적용하되, TIN(Triangulated Irregular Networks) 보간법을 이용하여 상기 DSM을 생성하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템.
  4. 제 1항에 있어서,
    상기 시각화 수행부(400)는
    상기 DSM에 포함되어 있는 좌표를 읽어들여, 해당하는 좌표 위치를 연결하여 상기 3차원 메쉬 정보를 획득하고, 상기 3차원 메쉬 정보를 가시화한 후, 상기 촬영 영상을 맵핑하여, 상기 촬영 영상에 대한 3차원 시각화를 수행하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템.
  5. 제 4항에 있어서,
    상기 시각화 수행부(400)는
    외부 입력에 따라, 3차원 시각화 데이터의 시각화 형태를 변경하여 제공하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템.
  6. 본 발명의 또 다른 일 실시예에 따른 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템에 의해 각 단계가 수행되는 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법에 있어서,
    학습 준비부에서, 설정된 하천 영역의 촬영 영상을 입력받는 데이터 입력 단계(S100);
    학습 준비부에서, 상기 데이터 입력 단계(S100)에 의해 입력받은 상기 촬영 영상을 분석하여, 인공지능 학습을 위한 특성치 정보를 추출하는 특성치 추출 단계(S200);
    학습 처리부에서, 저장되어 있는 인공지능 알고리즘을 이용하여 상기 특성치 추출 단계(S200)에 의한 상기 특성치 정보를 학습 처리하는 학습 처리 단계(S300);
    학습 처리부에서, 상기 학습 처리 단계(S300)에 의한 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하고, 토지 피복도 데이터를 출력받는 데이터 생성 단계(S400);
    DSM 생성부에서, 상기 데이터 생성 단계(S400)에 의한 상기 토지 피복도 데이터를 전달받아, 상기 토지 피복도 데이터와 상기 하천 관련 지역의 LiDAR 점군 데이터를 중첩하여 DSM(Digital Surface Model)을 생성하는 DSM 생성 단계(S500); 및
    시각화 수행부에서, 상기 DSM 생성 단계(S500)에 의한 상기 DSM을 이용하여 3차원 메쉬 정보를 획득하고, 획득한 상기 3차원 메시 정보에 상기 하천 관련 지역의 촬영 영상을 맵핑하여, 촬영 영상의 3차원 시각화를 수행하는 3차원 시각화 단계(S600);
    를 포함하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법.
  7. 제 6항에 있어서,
    상기 특성치 추출 단계(S200)는
    상기 촬영 영상을 분석하여, 하천 영역과 비하천 영역을 구분하고, 구분한 각 영역에 대한 특성치 정보를 추출하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법.
  8. 제 7항에 있어서,
    상기 데이터 생성 단계(S400)는
    상기 학습 결과 모델에 하천 관련 지형의 촬영 영상을 입력하여, 하천 영역와 비하천 영역이 구분되는 상기 토지 피복도 데이터를 출력받는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법.
  9. 제 8항에 있어서,
    상기 DSM 생성 단계(S500)는
    하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 최소 고도정보를 적용하고, 비하천 영역의 경우, LiDAR 점군 데이터에 포함되어 있는 평균 고도정보를 적용하되, TIN(Triangulated Irregular Networks) 보간법을 이용하여 상기 DSM을 생성하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법.
  10. 제 6항에 있어서,
    상기 3차원 시각화 단계(S600)는
    상기 DSM에 포함되어 있는 좌표를 읽어들여, 해당하는 좌표 위치를 연결하여 상기 3차원 메쉬 정보를 획득하고, 상기 3차원 메쉬 정보를 가시화한 후, 상기 촬영 영상을 맵핑하여, 상기 촬영 영상에 대한 3차원 시각화를 수행하되,
    외부 입력에 따라, 시각화 형태를 변경하여 3차원 시각화 데이터를 생성하는, 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 방법.
KR1020210169865A 2021-12-01 2021-12-01 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법 KR102702260B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210169865A KR102702260B1 (ko) 2021-12-01 2021-12-01 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210169865A KR102702260B1 (ko) 2021-12-01 2021-12-01 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20230082185A true KR20230082185A (ko) 2023-06-08
KR102702260B1 KR102702260B1 (ko) 2024-09-04

Family

ID=86766121

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210169865A KR102702260B1 (ko) 2021-12-01 2021-12-01 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102702260B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912445A (zh) * 2023-09-07 2023-10-20 湖南省水务规划设计院有限公司 一种城乡供水三维动态可视化方法
CN117634132A (zh) * 2023-08-21 2024-03-01 长江空间信息技术工程有限公司(武汉) 数字孪生场景下的mike21洪水推演数据处理与可视化方法
KR102683777B1 (ko) * 2023-11-29 2024-07-10 주식회사 모라이 3차원 공간 데이터를 생성하는 전자 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101199996B1 (ko) * 2012-04-12 2012-11-12 (주) 지오씨엔아이 3차원 하천 경계선 추출 방법
KR20130094015A (ko) * 2012-02-15 2013-08-23 한국전자통신연구원 입체 모델 생성 장치 및 방법
KR101307232B1 (ko) 2011-11-30 2013-09-11 한국수자원공사 하천홍수 상황인지시스템 및 컴퓨터로 판독 가능한 기록매체
KR20160093341A (ko) * 2015-01-29 2016-08-08 계명대학교 산학협력단 인공위성 영상과 랜덤포레스트 분류기 결합을 이용한 자동 하천 검출 시스템 및 방법
KR102237097B1 (ko) * 2021-01-12 2021-04-08 헬리오센 주식회사 인공지능을 이용하는 항공촬영 수치표면모델의 수치표고모델 변환 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101307232B1 (ko) 2011-11-30 2013-09-11 한국수자원공사 하천홍수 상황인지시스템 및 컴퓨터로 판독 가능한 기록매체
KR20130094015A (ko) * 2012-02-15 2013-08-23 한국전자통신연구원 입체 모델 생성 장치 및 방법
KR101199996B1 (ko) * 2012-04-12 2012-11-12 (주) 지오씨엔아이 3차원 하천 경계선 추출 방법
KR20160093341A (ko) * 2015-01-29 2016-08-08 계명대학교 산학협력단 인공위성 영상과 랜덤포레스트 분류기 결합을 이용한 자동 하천 검출 시스템 및 방법
KR102237097B1 (ko) * 2021-01-12 2021-04-08 헬리오센 주식회사 인공지능을 이용하는 항공촬영 수치표면모델의 수치표고모델 변환 시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117634132A (zh) * 2023-08-21 2024-03-01 长江空间信息技术工程有限公司(武汉) 数字孪生场景下的mike21洪水推演数据处理与可视化方法
CN116912445A (zh) * 2023-09-07 2023-10-20 湖南省水务规划设计院有限公司 一种城乡供水三维动态可视化方法
CN116912445B (zh) * 2023-09-07 2023-12-05 湖南省水务规划设计院有限公司 一种城乡供水三维动态可视化方法
KR102683777B1 (ko) * 2023-11-29 2024-07-10 주식회사 모라이 3차원 공간 데이터를 생성하는 전자 장치 및 방법

Also Published As

Publication number Publication date
KR102702260B1 (ko) 2024-09-04

Similar Documents

Publication Publication Date Title
KR102702260B1 (ko) 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법
Poullis et al. Automatic reconstruction of cities from remote sensor data
Priestnall et al. Extracting urban features from LiDAR digital surface models
Chen et al. A methodology for automated segmentation and reconstruction of urban 3-D buildings from ALS point clouds
Haala et al. Extraction of buildings and trees in urban environments
You et al. Urban site modeling from lidar
Li et al. An improved building boundary extraction algorithm based on fusion of optical imagery and LIDAR data
CN110346808B (zh) 一种激光雷达的点云数据处理方法和系统
Budroni et al. Automatic 3D modelling of indoor manhattan-world scenes from laser data
Shen et al. A polygon aggregation method with global feature preservation using superpixel segmentation
Poullis et al. Photorealistic large-scale urban city model reconstruction
Song et al. Extraction and reconstruction of curved surface buildings by contour clustering using airborne LiDAR data
Yang et al. Superpixel-based automatic image recognition for landslide deformation areas
US8139863B1 (en) System for capturing, characterizing and visualizing lidar and generic image data
Fernandez et al. An overview of lidar point cloud processing software
Hao et al. Automatic building extraction from terrestrial laser scanning data
RU2484427C1 (ru) Способ картографического отображения двухмерных распределений, заданных в цифровой форме
CN117367404A (zh) 基于动态场景下slam的视觉定位建图方法及系统
CN114758087B (zh) 一种城市信息模型的构建方法及装置
Azzaoui et al. Detection of crescent sand dunes contours in satellite images using an active shape model with a cascade classifier
Rana et al. Surface networks
Drăguţ et al. Terrain segmentation and classification using SRTM data
KR20230119483A (ko) 월파 예측 시뮬레이션 시스템 및 이를 이용한 예측 방법
Bennet 2.1 AIRBORNE LASER SCANNING FOR ARCHAEOLOGICAL PROSPECTION
Siegel et al. Superimposing height-controllable and animated flood surfaces into street-level photographs for risk communication

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right